TY - THES A1 - Anneser, Katrin T1 - Elektrochemische Doppelschichtkondensatoren zur Stabilisierung fluktuierender photovoltaischer Leistung T1 - Electric double layer capacitors for stabilizing intermittent photovoltaic power N2 - Der Ausbau der regenerativen Energiequellen führt vermehrt zu unvorhersehbaren Schwankungen der erzeugten Leistung, da Windkraft und Photovoltaik von natürlichen Bedingungen abhängen. Gerade Kurzzeitfluktuationen im Sekunden- bis Minutenbereich, die bei Solarzellen durch die Verschattung von vorüberziehenden Wolken zustande kommen, wird bislang wenig Beachtung geschenkt. Kurzzeitspeicher müssen eine hohe Zyklenstabilität aufweisen, um zur Glättung dieser Leistungsfluktuationen in Frage zu kommen. Im Rahmen der vorliegenden Dissertation wurden elektrochemische Doppelschichtkondensatoren für die Kopplung mit Siliziumsolarzellen und organischen Solarmodulen mit Hilfe von Simulationen und Messungen untersucht. Zusätzlich wurden grundlegende Fragestellungen zur Prozessierung und Alterung von Doppelschichtkondensatoren im Hinblick auf ein in der Literatur bereits diskutiertes System betrachtet, das beide Komponenten in einem Bauteil integriert - den sogenannten photocapacitor. Um die Druckbarkeit des gesamten elektrochemischen Doppelschichtkondensators zu ermöglichen, wurde der konventionell verwendete Flüssigelektrolyt durch einen Polymer-Gel-Elektrolyten auf Basis von Polyvinylalkohol und einer Säure ersetzt. Durch eine Verbesserung der Prozessierung konnte ein größerer Anteil der spezifischen Fläche der porösen Kohlenstoffelektroden vom Elektrolyten benetzt und somit zur Speicherung genutzt werden. Die Untersuchungen zeigen, dass mit Polymer-Gel-Elektrolyten ähnliche Kapazitäten erreicht werden wie mit Flüssigelektrolyten. Im Hinblick auf die Anwendung im gekoppelten System muss der elektrochemische Doppelschichtkondensator den gleichen Umweltbedingungen hinsichtlich Temperatur und Luftfeuchte standhalten wie die Solarzelle. Hierzu wurden umfangreiche Alterungstests durchgeführt und festgestellt, dass die Kapazität zwar bei Austrocknung des wasserhaltigen Polymer-Gel-Elektrolyten sinkt, bei einer Wiederbefeuchtung aber auch eine Regeneration des Speichers erfolgt. Zur passenden Auslegung des elektrochemischen Doppelschichtkondensators wurde eine detaillierte Analyse der Leistungsfluktuationen durchgeführt, die mit einem eigens entwickelten MPP-Messgerät an organischen Solarmodulen gemessen wurden. Anhand der Daten wurde analysiert, welche Energiemengen für welche Zeit im Kurzzeitspeicher zwischengespeichert werden müssen, um eine effiziente Glättung der ins Netz einzuspeisenden Leistung zu erreichen. Aus der Statistik der Fluktuationen wurde eine Kapazität berechnet, die als Richtwert in die Simulationen einging und dann mit anderen Kapazitäten verglichen wurde. Neben einem idealen MPP-Tracking für verschiedene Arten von Solarzellen und Beleuchtungsprofilen konnte die Simulation auch die Kopplung aus Solarzelle und elektrochemischem Doppelschichtkondensator mit zwei verschiedenen Betriebsstrategien nachbilden. Zum einen wurde ein fester Lastwiderstand genutzt, zum anderen eine Zielspannung für den Kurzzeitspeicher und somit auch die Solarzelle vorgegeben und der Lastwiderstand variabel so angepasst, dass die Zielspannung gehalten wird. Beide Betriebsmethoden haben einen Energieverlust gegenüber der MPP-getrackten Solarzelle zu verzeichnen, führen aber zu einer Glättung der Leistung des gekoppelten Systems. Die Simulation konnte für Siliziumsolarzellen mit einem Demonstratorversuch im Labor und für organische Solarzellen unter realen Bedingungen validiert werden. Insgesamt ergibt sich eine vielversprechende Glättung der Leistungsfluktuationen von Solarzellen durch den Einsatz von elektrochemischen Doppelschichtkondensatoren. N2 - The increased usage of regenerative energy sources leads to more unpredictable fluctuations in power output, as wind power and photovoltaics depend on natural conditions. Especially short-term fluctuations in the range of seconds to minutes, which occur in solar cells due to the shading by passing clouds, have received little attention so far. Corresponding short-term storage units that can be used to smooth these power fluctuations must have a high cycle stability. In the scope of this thesis the suitability of electrochemical double layer capacitors for coupling with silicon solar cells and organic solar modules was investigated with simulations and measurements. Processing methods and aging of electrochemical double layer capacitors in respect to an integrated system consisting of both components - already discussed in the literature as the so-called photocapacitor - were considered. As the liquid electrolyte was replaced by a polymer gel electrolyte based on polyvinyl alcohol and an acid in order to enable printability of the entire electrochemical double-layer capacitor. An increase of the capacitance to the level of the capacitance for electrodes with liquid electrolytes was achieved by improved processing in which a larger proportion of the specific area of the porous carbon electrodes could be wetted by the electrolyte and thus used for storage. In the application as coupled system the electrochemical double-layer capacitor must withstand the same environmental conditions with regard to temperature and humidity as the solar cell. Extensive aging tests were carried out and it was found that, although the capacitance decreases when the water-containing polymer gel electrolyte dries out, remoistening also regenerates the storage capacitance. A detailed analysis of the power fluctuations, which were measured under real conditions with small organic solar modules using a specially developed MPP measuring device, was carried out to determine the appropriate characteristics of the electrochemical double layer capacitor. Using a mathematically smoothed mean curve, it was determined which amounts of energy have to be stored in the short-term storage device for which time in order to achieve the smoothed curve. From the statistics of the fluctuations a capacitance could be calculated which was used as a guide value in the simulations and could then be compared to the impact of other capacities. In addition to ideal MPP tracking for different types of solar cells and lighting profiles, the simulation was also able to model the coupling of solar cell and electrochemical double layer capacitor with two different operating strategies. On the one hand a fixed load resistance was used, on the other hand a target voltage for the short-term storage device and thus also for the solar cell was specified. The load resistance was variably adapted so that the target voltage was reached. Both operating methods show an energy loss compared to the MPP tracked solar cell without storage component, but lead to smoothing of the power output of the coupled system. The simulation could be validated for silicon solar cells with a demonstrator test in the laboratory and for organic solar cells on the external test setup under real conditions. Overall, the use of electrochemical double layer capacitors results in a promising smoothing of the power fluctuations of solar cells. KW - Energie KW - Photovoltaik KW - Energiespeicher Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-199339 ER - TY - THES A1 - Aufmkolk, Sarah T1 - Super-Resolution Microscopy of Synaptic Proteins T1 - Hochauflösende Mikroskopie von Synaptischen Proteinen N2 - The interaction of synaptic proteins orchestrate the function of one of the most complex organs, the brain. The multitude of molecular elements influencing neurological correlations makes imaging processes complicated since conventional fluorescence microscopy methods are unable to resolve structures beyond the diffraction-limit. The implementation of super-resolution fluorescence microscopy into the field of neuroscience allows the visualisation of the fine details of neural connectivity. The key element of my thesis is the super-resolution technique dSTORM (direct Stochastic Optical Reconstruction Microscopy) and its optimisation as a multi-colour approach. Capturing more than one target, I aim to unravel the distribution of synaptic proteins with nanometer precision and set them into a structural and quantitative context with one another. Therefore dSTORM specific protocols are optimized to serve the peculiarities of particular neural samples. In one project the brain derived neurotrophic factor (BDNF) is investigated in primary, hippocampal neurons. With a precision beyond 15 nm, preand post-synaptic sites can be identified by staining the active zone proteins bassoon and homer. As a result, hallmarks of mature synapses can be exhibited. The single molecule sensitivity of dSTORM enables the measurement of endogenous BDNF and locates BDNF granules aligned with glutamatergic pre-synapses. This data proofs that hippocampal neurons are capable of enriching BDNF within the mature glutamatergic pre-synapse, possibly influencing synaptic plasticity. The distribution of the metabotropic glutamate receptor mGlu4 is investigated in physiological brain slices enabling the analysis of the receptor in its natural environment. With dual-colour dSTORM, the spatial arrangement of the mGlu4 receptor in the pre-synaptic sites of parallel fibres in the molecular layer of the mouse cerebellum is visualized, as well as a four to six-fold increase in the density of the receptor in the active zone compared to the nearby environment. Prior functional measurements show that metabotropic glutamate receptors influence voltage-gated calcium channels and proteins that are involved in synaptic vesicle priming. Corresponding dSTORM data indeed suggests that a subset of the mGlu4 receptor is correlated with the voltage-gated calcium channel Cav2.1 on distances around 60 nm. These results are based on the improvement of the direct analysis of localisation data. Tools like coordinated based correlation analysis and nearest neighbour analysis of clusters centroids are used complementary to map protein connections of the synapse. Limits and possible improvements of these tools are discussed to foster the quantitative analysis of single molecule localisation microscopy data. Performing super-resolution microscopy on complex samples like brain slices benefits from a maximised field of view in combination with the visualisation of more than two targets to set the protein of interest in a cellular context. This challenge served as a motivation to establish a workflow for correlated structured illumination microscopy (SIM) and dSTORM. The development of the visualisation software coSIdSTORM promotes the combination of these powerful super-resolution techniques even on separated setups. As an example, synapses in the cerebellum that are affiliated to the parallel fibres and the dendrites of the Purkinje cells are identified by SIM and the protein bassoon of those pre-synapses is visualised threedimensionally with nanoscopic precision by dSTORM. In this work I placed emphasis on the improvement of multi-colour super-resolution imaging and its analysing tools to enable the investigation of synaptic proteins. The unravelling of the structural arrangement of investigated proteins supports the building of a synapse model and therefore helps to understand the relation between structure and function in neural transmission processes. N2 - Das Zusammenspiel von synaptischen Proteinen organisiert präzise die Funktion eines der komplexesten Organe, dem Gehirn. Die Vielfalt der molekularen Bestandteile, die diese neurologischen Beziehungen beeinflussen, verkomplizieren den Bildgebungsprozess, da die konventionellen Fluoreszenzmikroskopiemethoden Strukturen, die kleiner sind als das Beugungslimit, nicht auflösen können. Die Implementierung der hochauflösenden Fluoreszenzmikroskopie in das Gebiet der Neurowissenschaften ermöglicht die Visualisierung feiner Details neurologischer Verbindungen. Die hochauflösende Mikroskopietechnik dSTORM (direct Stochastic Optical Reconstruction Microscopy) und dessen Optimierung als Mehrfarbenanwendung sind Schlüsselelemente meiner Doktorarbeit. Mit der Möglichkeit mehr als ein Protein zu messen, ist es mein Ziel die Verteilung synaptischer Proteine mit nanometer Genauigkeit zu entschlüsseln und diese in ein strukturelles und quantitativ Verhältnis zueinander zu setzen. Aus diesem Grund wurden dSTORM spezifische Protokolle den Besonderheiten der jeweiligen neuronalen Proben angepasst und optimiert. In einem Projekt wird der neurotrophe Faktor BDNF (brain derived neurotrophic factor) in primären hippocampalen Neuronen untersucht. Mit einer Auflösungspräzision von unter 15 nm kann durch eine Färbung der Proteine Bassoon und Homer in der aktiven Zone die prä- und postsynaptische Seite identifiziert werden. Daraus resultierend können Kennzeichen für vollentwickelte Synapsen erfasst werden. Die Einzelmolekülsensitivität von dSTORM ermöglicht erstmalig die Messung von endogenem BDNF und zeigt, dass die BDNF Gruppierungen entlang von glutamatergen Präsynapsen verteilt sind. Diese Daten beweisen, dass hippocampale Neuronen die Möglichkeit haben, BDNF in der vollausgebildeten glutamatergen Präsynapse anzureichern und somit möglicherweise synaptische Plastizität beeinflussen. Die Verteilung des metabotropen Glutamatrezeptors mGlu4 wird in physiologischen Gehirnschnitten untersucht. Das ermöglicht den Rezeptor in seiner natürlichen Umgebung zu analysieren. Mit Zweifarben-dSTORM Messungen wird das räumliche Arrangement der mGlu4 Rezeptoren in der Präsynapse der parallelen Fasern der molekularen Schicht des Mauskleinhirns visualisiert und eine vier- bis sechsfache erhöhte Dichte des Rezeptors in der aktiven Zone, verglichen mit dem näheren Umfeld, aufgezeigt. Vorausgegangende funktionale Messungen zeigen, dass metabotrope Glutamatrezeptoren spannungsgesteuerte Calciumkanäle und Proteine, die in synaptische Vesikelgrundierung involviert sind, beeinflussen. Entsprechende dSTORM Daten deuten darauf hin, dass ein Teil der mGlu4 Rezeptoren mit dem spannungsgesteuerten Calciumkanal Cav2.1 auf einer Distanz von circa 60 nm korreliert ist. Diese Ergebnisse basieren auf der Verbesserung der direkten Analyse der Lokalisationsdatensätze. Werkzeuge, wie die Koordinaten basierte Korrelationsanalyse und die Nächste Nachbaranalyse von Clusterschwerpunkten werden sich ergänzend benutzt, um ein umfassendes Bild von Proteinverbindungen in der Synapse zu erzeugen. Die Grenzen und die Verbesserungsmöglichkeiten dieser Werkzeuge werden diskutiert, um die quantitative Analyse von Einzelmoleküldatensätzen voranzubringen. Die Durchführung von hochauflösender Mikroskopie an komplexen Proben, wie Gehirnschnitten, wird begünstigt durch die Maximierung der Aufnahmefläche in Kombination mit der Möglichkeit mehr als zwei Zielstrukturen zu visualisieren, um somit das Protein von primären Interesse in einen zellulären Zusammenhang zu setzen. Diese Herausforderung hat als Motivation gedient, ein Messprotokoll für korrelierte Strukturierte Beleuchtungsmikroskopie (SIM) und dSTORM zu etablieren. Die Entwicklung der Visualisierungssoftware coSIdSTORM erleichtert die Kombination dieser beiden leistungsstarken, hochauflösenden Techniken, sogar wenn diese auf getrennten Mikroskopieaufbauten umgesetzt werden. Als ein Beispiel werden Synapsen, die zwischen den parallelen Fasern in der molekularen Schicht des Cerebellums und den Purkinje-Zellen ausgebildet werden, mit SIM identifiziert und das Protein Bassoon in diesen Präsynapsen wird mit einer nanometergenauen Präzision drei-dimensional mit dSTORM Messungen visualisiert. In meiner Arbeit habe ich den Fokus auf die Weiterentwickelung von hochauflösender Mehrfarbenmikroskopie und die damit verbundenen analytischen Werkzeuge gelegt, sodass die Untersuchung von synaptischen Proteinen ermöglicht wird. Die Herausarbeitung des strukturellen Arrangements der untersuchten synaptischen Proteine unterstützt den Aufbau eines Models der Synapse und erweitert somit das Verständnis des Zusammenhangs von Struktur und Funktion in neuronalen Übertragungsvorgängen. KW - Hochauflösende Mikroskopie KW - correlative methods KW - Fluoreszenzmikroskopie KW - Synaptische Proteine KW - Korrelative Mikroskopie KW - dSTORM KW - SIM KW - fluorescence KW - super-resolution microscopy KW - localization microscopy KW - two-color microscopy KW - synapse KW - synaptic proteins Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-151976 ER - TY - THES A1 - Weirauch, Katja T1 - Neue Herausforderungen an die professionellen Kompetenzen von Chemie-Lehrkräften durch die Implementation von Seminarfächern T1 - New Challenges to the Professional Competencies of Chemistry teachers caused by the Implementation of Science Seminar Courses N2 - Neuerungen in Bildungssystemen können nur erfolgreich sein, wenn sie planmäßig implementiert werden. Maßgeblich ist hierfür, dass die Lehrkräfte über die entsprechenden professionellen Kompetenzen verfügen. Die vorliegende Arbeit untersucht diesen Zusammenhang am Beispiel der Implementation von Seminarfächern im bayerischem Gymnasium. Es wird identifiziert, welche neuen Herausforderungen Chemie-Lehrkräfte mit Einführung der Wissenschaftspropädeutischen (W-) und Projekt-Seminare (P-) bewältigen müssen. Aus Interviews mit Lehrkräften wurden per qualitativer Inhaltsanalyse nach Mayring die Anforderungen an das Professionswissen der Lehrkräfte identifiziert. Für die W-Seminare konnte dargestellt werden, dass eine erfolgreiche Wissenschaftspropädeutik häufig an fehlendem Fachwissen der Lehrkräfte zu Nature of Science Inquiry (NOSI) scheiterte. Analog fehlte den Lehrkräften in den P-Seminaren Fachwissen zu Projektmanagement, sodass sie dies weder umsetzten, noch erfolgreich vermitteln konnten. Um die Lehrkräfte bei der Bewältigung der Herausforderungen zu unterstützen, wurden vielfältige Möglichkeiten der Kooperation von Seminarfächern mit der Universität als externem Partner erprobt. Methodenwerkzeuge für eine systematische Wissenschaftspropädeutik wurden entwickelt und im Rahmen von Lehrerfortbildungen weitergegeben. Weiterhin wurde ein Lehr-Lern-Labor „Analyseverfahren der Chemie“ für W-Seminare konzipiert und wiederholt erfolgreich durchgeführt. Damit wurden Erkenntnisse der empirischen Studie in nachweislich praxistaugliche Konzepte umgesetzt, die die erfolgreiche Implementation der Seminarfächer unterstützen können. N2 - Implementations of pedagogical innovations in school systems can only be successful if teachers are qualified for it – i. e. possess adequate pedagogical competencies to realize the new concept. In regard of this perspective, this thesis examines the implementation of Science- and Project-Seminar Courses (W- and P-Seminar) in Bavarian Gymnasium. The aim was to identify, which new challenges to their professional competencies teachers had to master when realizing the new teaching format. For that, interviews with teachers were analyzed according to Mayrings content analysis. It could be shown that Chemistry teachers generally could fulfill most of the tasks imposed on them. However, they lacked content knowledge about Nature of Science Inquiry (NOSI) and about project management. Consequently, they failed in teaching these contents successfully so that major aims of the Seminar Courses were not reached. These findings were directly transferred into concepts that provably may improve the implementation of W- and P-Seminars. Several new teaching tools were developed and repeatedly communicated in advanced training courses. Furthermore, lab-courses for students about chemical analytical methods were designed and extensively tested. Additionally, many other possibilities how Universities may cooperate with Science- and Project-Seminar-Courses are being described in this thesis. KW - Seminarfach KW - Wissenschaftspropädeutik KW - Implementation KW - Chemieunterricht KW - Organisationswissen KW - Beratungswissen KW - Fachspezifität KW - Wissenschaftspropädeutik KW - professionelle Kompetenz KW - Lehr-Lern-Labor KW - W-Seminar KW - P-Seminar KW - Bayerische Seminarfächer KW - Professionswissen KW - Lehrlernlabor Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-151330 ER - TY - THES A1 - Munz, Eberhard T1 - Physiological and metabolical high-resolution MRI of plants T1 - Physiologische und metabolische hochaufgelöste Pflanzen-Magnetresonanzbildgebung N2 - The noninvasive magnetic resonance imaging technique allows for the investigation of functional processes in the living plant. For this purpose during this work, different NMR imaging methods were further developed and applied. For the localisation of the intrusion of water into the germinating rape seed with the simultaneous depiction of the lipid-rich tissue via a 3D rendering, in Chap. 5 the technique of interleaved chemical selective acquisition of water and lipid was used in the germinating seed. The utilization of high-resolution MR images of germinated seeds enabled the localization of a predetermined water gap in the lipid-rich aleurone layer, which resides directly under the seed coat. The for a long time in biology prevalent discussion, whether such a gap exists or the seed soaks up the water from all sides, rather like a sponge, could hereby, at least for the rapeseed seed, be answered clearly. Furthermore, the segmentation and 3D visualization of the vascular tissue in the rapeseed seeds was enabled by the high-resolution datasets, a multiply branched structure preconstructed in the seed could be shown. The water is directed by the vascular tissue and thus awakens the seed gradually to life. This re-awakening could as well be tracked by means of invasive imaging via an oxygen sensor. In the re-awakened seeds, the lipid degradation starts, other than expected, not in the lipid-rich cotyledons but in the residual endosperm remaining from seed development and in the aleurone layer which previously protected the embryo. Within this layer, the degradation could be verified in the high-resolution MR datasets. The method presented in Chap. 6 provides a further characteristic trait for phenotyping of seeds and lipid containing plants in general. The visualization of the compounds of fatty acids in plant seeds and fruits could be achieved by the distinct utilization of chemical shift-selective imaging techniques. Via the application of a CSI sequence the fatty acid compounds in an olive were localized in a 2D slice. In conjunction with an individually adjusted CHESS presaturation module Haa85 the high-resolution 3D visualization of saturated and unsaturated fatty acid compounds in different seeds was achieved. The ratio maps calculated from these datasets allow to draw conclusions from the developmental stage or the type of seed. Furthermore, it could be shown that the storage condition of two soybean seeds with different storage time durations lead to no degradation of the fatty acid content. Additional structural information from inside of dry seeds are now accessible via MRI. In this work the imaging of cereal seeds could be significantly improved by the application of the UTE sequence. The hitherto existing depictions of the lipid distribution, acquired with the spin echo sequence, were always sufficient for examinations of the lipid content, yet defects in the starchy endosperm or differences in the starch concentration within the seed remained constantly unseen with this technique. In a direct comparison of the datasets acquired with the previous imaging technique (spin echo) and with UTE imaging, the advantage of data acquisition with UTE could be shown. By investigating the potential seed compounds (starch, proteins, sugar) in pure form, the constituent parts contributing to the signal could be identified as bound water (residual moisture) and starch. The application of a bi-exponential fit on the datasets of the barley seed enabled the separate mapping of magnetization and of relaxation time of two components contributing to the NMR signal. The direct comparison with histological stainings verified the previous results, thus this technique can be used for the selective imaging of starch in dry seeds. Conclusions on the translocation characteristics in plants can be drawn by the technique proposed in Chap. 8. The associated translocation velocities can now, even in the range of several um/h, be determined in the living plant. Based on calculated concentrations of an MR contrast agent, which was taken up by the plant, these translocation velocities were estimated both in longitudinal direction, thus along the vascular bundle, and in horizontal direction, thus out of the bundle. The latter velocity is located below the contrast agent's velocity value of free diffusion. By adjusting a dynamic contrast-enhancing imaging technique (DCE-Imaging, Tof91) the acquisition duration of a T1-map was significantly reduced. By means of these maps, local concentrations of the contrast agent in plant stems and the siliques of the rapeseed plant could be determined. Numerous questions in plant science can only be answered by non-invasive techniques such as MRI. For this reason, besides the experimental results achieved in this work, further NMR methods were tested and provided for the investigation of plants. As an example, the study on the imaging of magnetic exchange processes are mentioned, which provided the groundwork for a possible transfer of CEST experiments (Chemical Exchange Saturation Transfer) to the plant. The results are presented in the bachelor thesis of A. Jäger Jae17, which was performed under my supervision, they find great interest under biologists. The development of new technologies, which extend the possibilities for the investigation of living organisms, is of great importance. For this reason, I have contributed to the development of the currently unpublished method RACETE (Refocused Acquisition of Chemical Exchange Transferred Excitations [Jak17, Reu17, Gut18a]). By rephasing the transferred magnetization the utilization of properties which have not been available in chemical "`exchange"' experiments is enabled. With this method a positive contrast is generated, thus a reference experiment is not mandatory. Furthermore, the image phase, which in classical experiments contains no information about the exchanged protons, can be used for the distinct identification of multiple substances which have been excited simultaneously. This recently at the Department of Experimental Physics V developed method can be used in particular for the identification of lipids and for the localization of sugars and amino acids, thus it can serve the enhancement and improvement of non-invasive analytical methods. N2 - Die nicht-invasive Bildgebungstechnik der Magnetresonanz ermöglicht es, funktionelle Prozesse in Pflanzen am lebenden Objekt zu untersuchen. Hierfür wurden im Rahmen dieser Arbeit verschiedene NMR-Bildgebungsmethoden weiterentwickelt und angewendet. Da Pflanzen ein magnetisch sehr inhomogenes Gewebe besitzen, bedingt durch Lufteinschlüsse und das Vorhandensein verschiedenster gelöster Stoffe im Pflanzengewebe, wurden daher hauptsächlich Spin-Echo-Methoden für die Bildgebung verwendet. Um das erste Eindringen des Wassers in den keimenden Raps-Samen bei gleichzeitiger Darstellung des lipid-reichen Gewebes mittels einer 3D-Visualisierung zu lokalisieren, wurde in Kapitel 5 die Technik der verschachtelten, chemisch selektiven Aufnahme von Wasser und Lipid im keimenden Samen verwendet. Durch Verwendung von hochausgelösten MR-Aufnahmen an gekeimten Samen konnte weiterhin in der lipid-reichen Aleuron-Schicht, die sich direkt unter der Samenschale befindet, ein gezielt angelegter Einlass für das Wasser verortet werden. Die in der Biologie lange Zeit verbreitete Diskussion, ob es einen solchen Einlass gibt oder der keimende Samen das Wasser eher wie ein Schwamm von allen Seiten aufsaugt, konnte hierdurch, zumindest für den Raps-Samen, eindeutig beantwortet werden. Weiterhin konnte durch die hoch-aufgelösten Aufnahmen das vaskuläre Gewebe in den Raps-Samen segmentiert und in 3D veranschaulicht werden, es zeigte sich eine mehrfach verzweigte Struktur, die bereits im Samen angelegt ist. Das Wasser folgt hierbei dem vaskulären Gewebe und erweckt hierdurch den Samen schrittweise zum Leben. Dieses Wieder-Erwachen konnte ebenfalls durch die invasive Bildgebung mittels eines Sauerstoff-Sensors nachverfolgt werden. Im nun erwachten Samen selbst beginnt der Lipid-Abbau, anders als zunächst angenommen, nicht in den lipid-haltigen Kotyledonen sondern im von der Samen-Entwicklung verbliebenden Endosperm und in der den Keimling vormals schützenden Aleuron-Schicht. In dieser konnte der Abbau an gekeimten Samen durch hochaufgelöste MR-Aufnahmen nachgewiesen werden. Die in Kapitel 6 vorgeschlagene Methode liefert ein weiteres Merkmal zur Phenotypisiserung von Samen und lipidhaltigen Pflanzenbestandteilen im Allgemeinen. Die Darstellung der Bestandteile ungesättigter Fettsäuren in Pflanzensamen und -Früchten konnte durch gezielte Verwendung von chemisch selektiven Bildgebungstechniken erreicht werden. Durch die Anwendung einer CSI-Sequenz konnten die Fettsäurebestandteile in Oliven in einer 2D-Schicht lokalisiert werden. In Verbindung mit einem jeweils angepassten CHESS-Vorsättigungsmodul Haa85 wurde die hochaufgelöste 3D-Darstellung von gesättigten und ungesättigten Fettsäurebestandteilen in unterschiedlichen Samen erreicht. Rückschlüsse über das Entwicklungsstadium sowie die Sorte der verwendeten Samen können aus den Verhältnis-Karten, die aus den jeweiligen Datensätzen berechnet wurden, gezogen werden. Dass in diesem Fall die Aufbewahrungsmethode zu keiner Degradation der Fettsäurezusammensetzung geführt hat, konnte weiterhin am Beispiel von zwei Sojasamen mit unterschiedlicher Lagerdauer gezeigt werden. Zusätzliche strukturelle Informationen aus dem Inneren trockener Samen sind nun mittels MRT zugänglich. In dieser Arbeit konnte durch die UTE-Sequenz die Bildgebung von Getreidesamen deutlich vorangebracht werden. Die bisherigen Darstellungen der Lipid-Verteilung, aufgenommen mit einer Spin-Echo Sequenz, waren zwar für die Betrachtung des Lipid-Gehalts stets ausreichend, Defekte im stärkehaltigen Endosperm oder Unterschiede in der Stärke-Konzentration innerhalb des Samen blieben mit dieser Technik jedoch stets verborgen. Im direkten Vergleich der mit der bisherigen Technik (Spin-Echo) und der UTE-Bildgebung aufgenommenen Datensätze konnte der Vorteil der Datenaufnahme mit UTE gezeigt werden. Durch die Untersuchung der möglichen Samenbestandteile (Stärke, Proteine, Zucker) in Reinform konnten die zum Signal beitragen Bestandteile als gebundenes Wasser (Restfeuchte) und Stärke identifiziert werden. Die Verwendung bi-exponentiellen Fits and die Messdaten ermöglichte es im Gersten-Samen, zwei zum Signal beitragende Komponenten in getrennten Karten bezüglich ihrer Magnetisierung und Relaxationszeit zu trennen. Der Vergleich mit histologischen Färbungen bestätigte die bisherigen Ergebnisse, somit kann diese Technik zur selektiven Darstellung von Stärke in trockenen Samen verwendet werden. Rückschlüsse auf das Transportverhalten in Pflanzen können durch die in Kapitel 8 vorgestellte Technik gezogen werden. Die zugehörigen Transportgeschwindigkeiten im lebenden Pflanzenobjekt können nun, selbst im Bereich von wenigen $\mu$m/h, bestimmt werden. Diese wurden anhand von berechneten Konzentrationen eines von der Pflanze aufgenommenen MR-Kontrastmittels sowohl in longitudinaler Richtung, also entlang des Leitgewebebündels, als auch in horizontaler Richtung, also aus dem Leitbündel heraus, abgeschätzt werden; Letztere Geschwindigkeit liegt deutlich unter dem Wert der freien Diffusionsgeschwindigkeit des Kontrastmittels. Hierfür wurden durch Anpassung einer dynamischen Kontrast-erhöhenden Bildgebungstechnik (DCE-Imaging, Tof91) die Aufnahmedauer einer für die weiteren Berechnungen benötigen T1-Karte deutlich reduziert. Mittels dieser Karten konnten die lokalen Konzentrationen des Kontrastmittels in Pflanzenstängeln und Schoten der Rapspflanze bestimmt werden. Zahlreiche Fragen in der Pflanzenforschung können nur durch nicht-invasive Techniken wie MRT beantwortet werden. Deswegen wurden, neben den experimentellen Ergebnissen, die mittels dieser Arbeit erreicht wurden, auch weitere NMR Methoden für die Untersuchung von Pflanzen getestet und zur Verfügung gestellt. Als Beispiel seien hier die Untersuchungen zur Bildgebung von magnetischen Austauschprozessen genannt, welche eine Vorarbeit zur möglichen Übertragung con CEST-Experimenten (Chemical Exchange Saturation Transfer) auf das Modell Pflanze liefern. Die Ergebnisse sind in der Bachelor-Arbeit von A. Jäger \cite{jaeger17}, an deren Durchführung ich als Betreuer maßgeblich beteiligt war, dargestellt und finden großes Interesse bei Biologen. Von besonderer Wichtigkeit sind auch die Entwicklungen neuer Technologien, die die Möglichkeiten zur Untersuchung von lebenden Organismen erweitern können. Deswegen habe ich zu der Entwicklung der bislang unveröffentlichten Methode RACETE (Refocused Acquisition of Chemical Exchange Transferred Excitations [Jak17, Reu17, Gut18a]) beigetragen. Durch das Rephasieren der transferierten Magnetisierung können Eigenschaften, die bislang in chemischen "`Austausch"'-Experimenten nicht zur Verfügung stehen, ausgenutzt werden. Mit dieser Methode wird ein positiver Kontrast erzeugt, sie ist deshalb nicht zwingend auf ein Referenz-Experiment angewiesen. Weiterhin kann die Bildphase, welche in klassichen CEST-Experimenten keine Information über die ausgetauschten Protonen enthält, zur eindeutigen Identifizierung mehrerer parallel angeregter Substanzen verwendet werden. KW - Kernspintomografie KW - Pflanzen KW - Pflanzenbildgebung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-172518 ER - TY - THES A1 - Winter, Patrick T1 - Neue Methoden zur Quantitativen Kardiovaskulären MR-Bildgebung T1 - New methods for quantitative cardiovascular magnetic resonance imaging N2 - Herzkreislauferkrankungen stellen die häufigsten Todesursachen in den Industrienationen dar. Die Entwicklung nichtinvasiver Bildgebungstechniken mit Hilfe der Magnetresonanz-Tomografie (MRT) ist daher von großer Bedeutung, um diese Erkrankungen frühzeitig zu erkennen und um die Entstehungsmechanismen zu erforschen. In den letzten Jahren erwiesen sich dabei genetisch modifzierte Mausmodelle als sehr wertvoll, da sich durch diese neue Bildgebungsmethoden entwickeln lassen und sich der Krankheitsverlauf im Zeitraffer beobachten lässt. Ein große Herausforderung der murinen MRT-Bildgebung sind die die hohen Herzraten und die schnelle Atmung. Diese erfordern eine Synchronisation der Messung mit dem Herzschlag und der Atmung des Tieres mit Hilfe von Herz- und Atemsignalen. Konventionelle Bildgebungstechniken verwenden zur Synchronisation mit dem Herzschlag EKG Sonden, diese sind jedoch insbesondere bei hohen Feldstärken (>3 T) sehr störanfällig. In dieser Arbeit wurden daher neue Bildgebungsmethoden entwickelt, die keine externen Herz- und Atemsonden benötigen, sondern das MRT-Signal selbst zur Bewegungssynychronisation verwenden. Mit Hilfe dieser Technik gelang die Entwicklung neuer Methoden zur Flussbildgebung und der 3D-Bildgebung, mit denen sich das arterielle System der Maus qualitativ und quantitativ erfassen lässt, sowie einer neuen Methode zur Quantisierung der longitudinalen Relaxationszeit T1 im murinen Herzen. Die in dieser Arbeit entwickelten Methoden ermöglichen robustere Messungen des Herzkreislaufsystems. Im letzten Kapitel konnte darüber hinaus gezeigt werden dass sich die entwickelten Bildgebungstechniken in der Maus auch auf die humane Bildgebung übertragen lassen. N2 - Cardiovascular diseases are one of the main causes of death in western countries. Hence, the development of non-invasive imaging techniques using Magnetic Resonance Imaging (MRI) is very important for early detection of these illnesses and for examination of the biological mechanisms. In the past years genetically modified mouse models have proven to be great assets, since they allow the development of new imaging techniques and to investigate the progress of cardiovascular diseases in time lapse. The main challenge of murine MRI is the high heart rate und the fast respiration. Hence, synchronization of the measurement with cardiac motion and breathing by using cardiac and respiration signals is required. Most imaging techniques use ECG leads for synchronization with the heartbeat, however, these probes are prone to disturbances at high magnetic field strengths (>3 T). In this work new imaging techniques were developed that do not use external cardiac and respiration signals but the MRI signal itself for motion synchronization. With these techniques new methods for flow quantification und 3D imaging could be developed for qualitative and quantitative measurements in the murine arteries. Furthermore, a new method for quantification of the longitudinal relaxation time T1 in the murine heart could be developed. The methods presented in this work enable more robust measurements of the cardiovascular system. In the last chapter it could be shown that the imaging techniques developed in the mouse can also be transferred to human MRI. KW - Kernspintomografie KW - Kardiovaskuläres System KW - Flussbildgebung KW - 3D-Bildgebung KW - Selbstnavigation KW - T1 KW - UTE KW - Maus KW - Aorta KW - Herzmuskel KW - Herzschlag Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174023 ER - TY - THES A1 - Gutjahr, Fabian Tobias T1 - Neue Methoden der physiologischen Magnet-Resonanz-Tomographie: Modellbasierte T1-Messungen und Darstellung von chemischem Austausch mit positivem Kontrast T1 - Novell Methods for Physiological MRI: Model based T1-Quantification and Positive Contrast Chemical Exchange Measurements N2 - Ziel dieser Arbeit war es, neue quantitative Messmethoden am Kleintier, insbesondere die Perfusionsmessung am Mäuseherz, zu etablieren. Hierfür wurde eine retrospektiv getriggerte T1-Messmethode entwickelt. Da bei retrospektiven Methoden keine vollständige Abtastung garantiert werden kann, wurde ein Verfahren gefunden, das mit Hilfe von Vorwissen über das gemessene Modell sehr effizient die fehlenden Daten interpolieren kann. Mit Hilfe dieser Technik werden dynamische T1-Messungen mit hoher räumlicher und zeitlicher Auflösung möglich. Dank der hohen Genauigkeit der T1-Messmethode lässt sich diese für die nichtinvasive Perfusionsmessung am Mäuseherz mittels der FAIR-ASL-Technik nutzen. Da auf Grund der retrospektiven Triggerung Daten an allen Positionen im Herzzyklus akquiriert werden, konnten T1- und Perfusionskarten nach der Messung zu beliebigen Punkten im Herzzyklus rekonstruiert werden. Es bietet sich an, Techniken, die für die myokardiale Perfusion angewandt werden, auch für die Nierenperfusionsmessung zu verwenden, da die Niere in ihrer Rinde (Cortex) eine ähnlich hohe Perfusion aufweist wie das Myokard. Gleichzeitig führen Nierenerkrankungen oftmals zu schlechter Kontrastmittelverträglichkeit, da diese bei Niereninsuffizienz u.U. zu lange im Körper verweilen und die Niere weiter schädigen. Auch deshalb sind die kontrastmittelfreien Spin-Labeling-Methoden hier interessant. Die FAIR-ASL-Technik ist jedoch an Mäusen in koronaler Ansicht für die Niere schlecht geeignet auf Grund des geringen Unterschieds zwischen dem markierten und dem Vergleichsexperiment. Als Lösung für dieses Problem wurde vorgeschlagen, die Markierungsschicht senkrecht zur Messschicht zu orientieren. Hiermit konnte die Sensitivität gesteigert und gleichzeitig die Variabilität der Methode deutlich verringert werden. Mit Hilfe von kontrastmittelgestützten Messungen konnten auch das regionale Blutvolumen und das Extrazellularvolumen bestimmt werden. In den letzten Jahren hat das Interesse an Extrazellularvolumenmessungen zugenommen, da das Extrazellularvolumen stellvertretend für diffuse Fibrose gemessen werden kann, die bis dahin nichtinvasiven Methoden nicht zugänglich war. Die bisher in der Literatur verwendeten Quantifizierungsmethoden missachten den Einfluss, den das Hämatokrit auf den ECV-Wert hat. Es wurde eine neue Korrektur vorgeschlagen, die allerdings zusätzlich zur ECV-Messung auch eine RBV-Messung benötigt. Durch gleichzeitige Messung beider Volumenanteile konnte auch erstmals das Extrazellulare-Extravaskuläre-Volumen bestimmt werden. Eine gänzlich andere kontrastmittelbasierte Methode in der MRT ist die Messung des chemischen Austauschs. Hierbei wirkt das Kontrastmittel nicht direkt beschleunigend auf die Relaxation, sondern der Effekt des Kontrastmittels wird gezielt durch HF-Pulse an- und ausgeschaltet. Durch den chemischen Austausch kann die Auswirkung der HF-Pulse akkumuliert werden. Bislang wurde bei solchen Messungen ein negativer Kontrast erzeugt, der ohne zusätzliche Vergleichsmessungen schwer detektierbar war. Im letzten Teil dieser Arbeit konnte eine neue Methode zur Messung des chemischen Austauschs gezeigt werden, die entgegen der aus der Literatur bekannten Methoden nicht Sättigung, sondern Anregung überträgt. Diese Änderung erlaubt es, einen echten positiven chemischen Austausch-Kontrast zu erzeugen, der nicht zwingend ein Vergleichsbild benötigt. Gleichzeitig ermöglicht die Technik, dadurch dass Anregung übertragen wird, die Phase der Anregung zu kontrollieren und nutzen. Eine mögliche Anwendung ist die Unterscheidung verschiedener Substanzen in einer Messung. In der Summe wurden im Rahmen dieser Arbeit verschiedene robuste Methoden eta- bliert, die die Möglichkeiten der quantitativen physiologischen MRT erweitern. N2 - The objective of this dissertation was to develop new methods for physiological magnetic resonance imaging. A new retrospectively triggered T1-method was developed. Due to the retrospectivity, full sampling of k-space can not be warranted. Therefore a model- based interpolation method was developed to reconstruct missing data efficiently. Using this technique, dynamic T1-measurements with high temporal and spatial resolution could be acquired. Due to the high precision of the developed T1-method, perfusion could be quantified using Arterial Spin Labeling. In comparison to the method established previously in our laboratory, the resolution could be doubled. Retrospective triggering enables reconstruc- tion of parameter maps on arbitrary positions in the heart cycle, as data are acquired continuously over several heart cycles. The perfusion measurement benefits from recon- struction on the end systole, as partial volume effects are decreased, due to the increased myocardial wall thickness. This serves as an effective increase in resolution. Furthermore, the data distributed over the whole heart cycle could be used to accelerate and stabilize the measurement. Cardiac and renal diseases can be directly related, as deficiency in one of the organs affects the other one. Additionally several diseases like hypertension or diabetes affect both organs. Moreover, kidneys are highly perfused, similar to the myocardium. Renal insufficiency can also lead to contrast agent intolerance, as clearance rates can be redu- ced. Therefore the FAIR-ASL technique lends itself to kidney perfusion measurements. It can, however, be problematic in small animals in coronal view, as the control-experiment inadvertently labels much of the same tissue and blood, as the labeling experiment. A modified FAIR-ASL measurement could be shown to increase sensitivity and reduce in- ter-measurement-variability by repositioning the inversion slice of the control experiment orthogonally to the measurement slice. The T1-method was used in combination with contrast agent based measurements to quantify the regional blood volume and the extracellular volume fraction. There has been an increased interest in extracellular volume fraction measurements as the extracel- lular volume is used as a proxy for the detection of diffuse fibrosis, which has previously been inaccessible to non-invasive methods. Several correction factors are used in volume fraction quantification, but the influence of hematocrit in ECV measurements has been neglected so far. In mice and rats, the regional blood volume is a major constituent of the ECV, leading to a significant influence of hematocrit. A new correction is proposed to account for the volume fraction taken up by hematocrit. For this ECV hematocrit correction, the RBV has to be measured as well. Using both measurements, the ex- tracellular volume fraction can be corrected and the extracellular-extravascular-volume- fraction quantified. A fundamentally different contrast-mechanism can be utilized using the measurement of chemical exchange. Instead of shortening relaxation times, the contrast provided by chemical exchange agents can be turned on and off using frequency selective rf-pulses. Due to the chemical exchange the effect of these pulses can be accumulated. Measure- ments exploiting this accumulation effect in general produce a negative contrast requiring a control-experiment for further evaluation. In the last part of this dissertation, a new technique transferring excitation instead of saturation could be demonstrated. By ge- nerating a real positive contrast, no control experiment is required. Other properties unavailable to previously published chemical exchange transfer methods can be exploi- ted. One example demonstrated in this dissertation is the separation of simultaneously excited compounds by their respective phase information imprinted by the excitation pulses. In summary, several robust methods could be implemented to further the capabilities of quantitative physiological MRI. KW - Kernspintomografie KW - Physioloische MRT KW - Modellbasierte Rekonstruktion KW - FAIR-ASL KW - Chemischer Austausch KW - Regionales Blutvolumen KW - Extrazellularvolumen KW - T1-Quantifizierung KW - Kernspinresonanz KW - Myokardiale Perfusion KW - Niere KW - Perfusionsmessung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161061 ER - TY - THES A1 - Schreck, Maximilian T1 - Synthesis and Photophysics of Linear and Star-Shaped Oligomers of Squaraine Dyes T1 - Synthese und Photophysik von Linearen und Sternförmigen Squarain-Oligomeren N2 - In this thesis, the synthesis and photophysics of a great variety of squaraine dyes are presented. This variety is based on four parent squaraines containing either indolenine or quinoline heterocycles. By a suitable choice of the donor and acceptor unit, the optical properties can already be adapted to the properties desired on the stage of the monomer. To promote a further derivatisation of these dyes, diverse functional groups are attached to the monomers using transition metal-catalysed C-C coupling reactions. However, this has to be preceded by the synthesis of bromine-functionalised derivatives as a direct halogenation of squaraine dyes is not feasible. Therefore, the halogen function is already introduced in precursor molecules giving rise to a molecular building block system containing bromine-, boronic ester-, and alkyne-functionalised monomer units, which pave the way to a plethora of squaraine oligomers and polymers. The indolenine homopolymer pSQB-1 as well as the corresponding small molecular weight oligomers dSQB-1 and tSQB were synthesized applying Ni-mediated Yamamoto and Pd-catalysed Suzuki coupling methodologies, respectively. The motivation for this project relied on the fundamental investigations by Völker et al. on pSQB-V. A progressive red-shift of the lowest energy absorption maximum from the dimer to the polymer was observed in CHCl3 compared to the monomer. With increasing number of monomer units, the exciton coupling decreases from the dimer to the polymer. In addition, the shape of the absorption band manifold shows a strong dependence on the solvent, which was also observed by Völker et al. J-type aggregate behavior is found in chlorinated solvents such as CHCl3 and DCM, whereas H-type aggregates are formed in acetone. Temperature-dependent absorption studies in PhCN reveals a reversible equilibrium of diverse polymer conformers, which manifests itself in a gradual change from H-aggregate behavior to a mixture with a more pronounced J-aggregate behavior upon raising the temperature. It isassumed that both characteristic aggregate bands correlate in borderline cases with two polymer structures which can be assigned to a zig-zag and a helical structure. As no experimental evidence for these structures could hitherto be provided by NMR, TD-DFT computations on oligomers (22-mers) can reproduce very closely the characteristic features of the spectra for the two conformational isomers. The subsequent chapters are motivated by the goal to influence the optical properties through a control of the superstructure and thus of the intramolecular aggregate formation. On the one hand, bulky groups are implemented in the 3-position of the indolenine scaffold to provoke steric repulsion and thus favoring J-aggregate behavior at the expense of helical arrangements. The resulting homopolymer pDiPhSQB bearing two phenyl groups per indolenine exhibits J-type aggregate behavior with red-shifted absorption maxima in all considered solvents which is explained to be caused by the formation of elongated zig-zag structures. Furthermore, single-crystal X-ray analysis of monomer DiPhSQB-2-Br2 reveals a torsion of the indolenine moieties as a consequence of steric congestion. The twist of the molecular geometry and the resulting loss of planarity leads to a serious deterioration of the fluorescence properties, however a significant bathochromic shift of ca. 1 200 cm-1 of the lowest absorption band was observed compared to parent SQB, which is even larger than the shift for dSQB-1 (ca. 1 000 cm-1). On the other hand, a partial stiffening of the polymer backbone is attempted to create a bias for elongated polymer chains. In this respect, the synthetic approach is to replace every second biarylaxis with the rigid transoid benzodipyrrolenine unit. Despite a rather low average degree of polymerization < 10, exclusively red-shifted absorption maxima are observed in all solvents used. In order to complete the picture of intramolecular aggregates through the selective design of H-aggregates, a squaraine-squaraine copolymer was synthesised containing the classic cisoid indolenine as well as the cisoid quinoline building block. Taking advantage of the highly structure directing self-assembly character of the quinoline moiety, the copolymer pSQBC indeed showes a broad, blue-shifted main absorption band in comparison with the monomer unit dSQBC. The shape of the absorption band manifold solely exhibited a minor solvent and temperature dependence indicating a persistent H-aggregate behaviour. Hence, as a proof of concept, it is shown that the optical properties of the polymers (H- and J-aggregate) and the corresponding superstructure can be inherently controlled by an adequate design of monomer precursors. The last chapter of this work deals, in contrast to all other chapters, with intermolecular aggregates. It is shown that the two star-shaped hexasquarainyl benzenes hSQA-1 and hSQA-2 exhibit a strong propensity for self-organisation. Concentration- and temperature-dependent studies reveal a great driving force for self-assembly in acetone. While the larger hSQA-2 instantaneously forms stable aggregates, the aggregates of hSQA-1 shows a pronounced kinetic stability. Taking advantage of the kinetic persistency of these aggregates, the corresponding kinetic activation parameters for aggregation and deaggregation can be assessed. The absorption spectra of both hexasquarainyl benzenes in the aggregated state reveal some striking differences. While hSQA-1 features an intensive, very narrow and blue-shifted absorption band, two red-shifted bands are observed for hSQA-2, which are closely located at the monomer absorption. The very small bandwidth of hSQA-1 are interpreted to be caused by exchange narrowing and pointed towards highly ordered supramolecular aggregates. The concentration-dependent data of the two hexasquarainyl benzenes can be fitted to the dimer-model with excellent correlation coefficients, yielding binding constants in excess of 10^6 M-1, respectively. Such high binding constants are very surprising, considering the unfavourable bulky 3,3-dimethyl groups of the indolenine units which should rather prevent aggregation. Joint theoretical and NMR spectroscopic methods were applied to unravel the supramolecular aggregate structure of hSQA-1, which is shown to consist of two stacked hexasquarainyl benzenes resembling the picture of two stacked bowls. N2 - Im Rahmen dieser Arbeit wird die Synthese sowie photophysikalischen Untersuchungen einer Vielzahl von Squarainfarbstoffen präsentiert. Diese Vielfalt erwuchs aus vier monomeren Stammverbindungen, die auf Indolenin- bzw. Chinolin-Heterozyklen gründeten. Um die Derivatisierung der Monomere weiter voranzutreiben, werden diese durch geeignete funktionelle Gruppen unter der Verwendung von übergangsmetallkatalysierten C-C Kupplungsreaktionen chemisch modifiziert. Dieser geht jedoch die Synthese Brom-funktionalisierter Vorstufen voraus. So muss die Halogenfunktion bereits in den Vorläufermolekülen eingeführt werden, da eine selektive, direkte Halogenierung auf der Stufe des Squarains nicht möglich ist. Schlussendlich kann somit ein molekularer Baukasten entwickelt werden, der, bestückt mit Monomerbausteinen mit Brom-, Borester-, und Alkinfunktionen, den Weg zu diversen oligomeren und polymeren Squarainfarbstoffen ebnete. Das Indolenin Squarain Homopolymer pSQB-1, als auch die entsprechenden niedermolekularen Oligomerverbindungen dSQB-1 und tSQB wurden mittels der Ni-unterstützten Yamamoto bzw. Pd-katalysierte Suzuki Kupplung dargestellt. Die bereits durch Völker et al. erfolgten spektroskopischen Untersuchungen an pSQB-V werden im Rahmen dieser Arbeit fortgesetzt. Im Vergleich zum Monomer, zeigen das Dimer, Trimer und das Polymer in CHCl3 eine progressive Rotverschiebung der niedrigsten, intensivsten Absorptionsbande. Mit steigender Anzahl der SQB-Monomereinheiten nimmt die Exzitonenkopplung im Dimer bis hin zum Polymer ab. Wie auch bereits Völker et al. zeigen konnten, ist die Form der Absorption des Exzitonenbandes von pSQB-1 stark lösemittelabhängig. Während J-Aggregat ähnliches Verhalten in CHCl3 und DCM beobachtet wird, zeigt das Polymer in Aceton H-Aggregat ähnliches Verhalten. Temperaturabhängige Absorptionsmessungen in PhCN zeigen ein reversibles thermodynamisches Gleichgewicht von verschiedenen Polymerstrukturen, welches sich mit steigender Temperatur durch einen sukzessiven Übergang von H-Aggregat zu einer Mischung mit mehr J-Aggregat Charakter manifestiert. Es wird angenommen, dass das Auftreten der charakteristischen Aggregatsbanden im Grenzfall mit zwei Polymerkonformeren korreliert, die einer Zick-Zack- und einer Helix-Struktur entsprechen. Da hierfür keine experimentellen Beweise durch NMR bis dato vorliegen, wurden TD-DFT Kalkulationen an Oligomereinheiten (22-er) durchgeführt, die die wesentlichen Merkmale der Absorptionsspektren der zwei Konformere reproduzieren konnten. Die anschließenden Kapitel erwuchsen aus der Motivation heraus, die optischen Eigenschaften der Polymere über die Kontrolle der Strukturbildung und somit der intramolekularen Aggregatsbildung zu beeinflussen. Um einerseits J-Aggregat Verhalten zu provozieren wird zunächst der Ansatz verfolgt, durch sterisch anspruchsvolle Gruppen in der 3-Position des Indolenin Gerüsts, den Kollaps zu helikalen Stukturen zu vermeiden. Das resultierende Homopolymer pDiPhSQB mit zwei Phenylgruppen pro Indolenin Einheit zeigt in allen untersuchten Lösemitteln bathochrom verschobene Absorptionsmaxima, was mit der Ausbildung von ausschließlich ausgedehnten Zick-Zack-Ketten begründet werden. Darüber hinaus zeigte die Einkristall-Röntgenstrukturanalyse des Monomers DiPhSQB-2-Br2 als Konsequenz der sterischen Überfrachtung eine Torsion des Indolenin Gerüsts. Die Verdrillung der Molekülgeometrie und der daraus resultierende Verlust an Planarität, führt zu einer erheblichen Verschlechterung der Fluoreszenzeigenschaften, jedoch wird eine signifikante Rotverschiebung der Monomerbande von ca. 1 200 cm-1 im Vergleich zu SQB beobachtet, welche sogar größer als die für dSQB-1 ist. Zum anderen ergibt der Ansatz der partiellen Versteifung des Polymerrückgrades ebenfalls die Ausbildung von ausgedehnten Polymerketten begünstigen. Dieser Ansatz wird insofern verfolgt, als dass jede zweite Biarylachse zwischen zwei Monomereinheiten in pSQB-1 durch eine rigide transoide Benzodipyrrolenin Brücke ersetzt wird. Trotz eines eher geringen durchschnittlichen Polymerisationsgrades von < 10 kann dennoch eine Rotverschiebung der niederenergetischsten Absorptionsbande in allen Lösemitteln beobachtet werden. Um das Bild der intramolekularen Aggregate zu vervollständigen, wird das gezielte Design von H-Aggregaten verfolgt. Hierfür wurde ein Squarain-Squarain Copolymer synthetisiert, das zum einen aus dem klassischen cisoiden Indolenin und zum anderen aus dem cisoiden Chinolin Squarain aufgebaut ist. Diesbezüglich will man sich die Triebkraft des Chinolin Bausteins für Aggregation als strukturdirigierende Komponente zu Nutze machen, um helikale Konformationen der Polymerstränge zu erzeugen. Das Copolymer pSQBC zeigt in der Tat eine verbreiterte, hypsochrom verschobene Hauptabsorptionsbande im Vergleich zur Monomereinheit dSQBC. Die Form der Absorption des Exzitonenbandes zeigt eine geringe Lösemittelabhängigkeit, die ebenfalls nur marginal durch die Temperatur beeinflusst werden kann. Schlussendlich deuten diese Befunde auf ein stark-ausgeprägtes H-Aggregat ähnliches Verhalten hin, was die zu anfangs formulierte These belegt, dass sich die optischen Eigenschaften der Polymere (H- und J-Aggregate) und deren Strukturbildung durch ein adäquates Moleküldesign der Monomerbausteine kontrollieren lassen. Das letzte Kapitel dieser Arbeit stand im Gegensatz zu den vorherigen Kapiteln ausschließlich im Fokus von intermolekularen Aggregaten. Die Squaraine hSQA-1 und hSQA-2 neigen, in ein sternförmiges Hexaarylbenzol-Gerüst gebettet, zur Selbstorganisation. Konzentration- und temperaturabhängige Studien der beiden synthetisierten Hexasquarainyl-Benzole zeigen eine starke Triebkraft zur Aggregation in Aceton. Während hSQA-2 instantan thermodynamisch stabile Aggregate bildet, offenbart hSQA-1 Aggregate eine ausgeprägte kinetische Stabilität. Dies kann man sich zu Nutze machen und die kinetischen Aktivierungsparameter der Aggregation und Deaggregation zu bestimmen. Die Absorptionsspektren der beiden Hexasquarainyl-Benzole im aggregierten Zustand zeigen extreme Unterschiede auf. Während hSQA-1 eine intensive, sehr schmale und stark hypsochrom verschobene Bande zeigt, beobachtet man für das größere Hexasquarainyl-Benzol zwei bathochrom verschobene Banden, die allerdings energetisch sehr nahe der Monomerbande lokalisiert sind. Die sehr geringe Halbwertsbreite der Aggregatsbande in hSQA-1 wird durch die sog. Austauschverschmälerung erklärt und deutet auf hochgeordnete supramolekulare Aggregate hin. Die konzentrationsabhängigen Messdaten der beiden Chromophore konnten sehr gut mit Hilfe des Dimer-Modells angepasst werden, welches für beide Systeme eine hohe Bindungskonstante von über 10^6 M-1 ergab. In Anbetracht der Tatsache, dass die raumgreifenden 3,3-Dimethylgruppen im Indoleningerüst extrem hinderlich für den Aggregationsprozess sind, ist die starke Triebkraft zur Selbstorganisation, welche sich in den hohen Bindungskonstanten niederschlägt, äußerst bemerkenswert. Theoretische Modellierungen und Rechnungen in Kombination mit NMR-spektroskopischen Untersuchungen von hSQA-1 ergeben eine Aggregatsstruktur aus zwei sich stapelten Hexasquarainylbenzolmonomeren, die dem Bild zweier gestapelter Schüsseln entspricht. KW - Squaraine KW - Oligomere KW - Supramolekulare Chemie KW - Squaraine Dyes KW - Oligomers and Polymers KW - J- and H-Aggregates KW - Helix- and Zig-Zag-Conformers KW - Supramolecular Chemistry KW - Squarain Farbstoffe KW - J- and H-Aggregate KW - Helix- and Zick-Zack-Konformere KW - Supramolekulare Chemie KW - Helicität KW - Chemische Synthese KW - Chemische Reaktion Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174272 ER - TY - THES A1 - Schielein, Richard T1 - Analytische Simulation und Aufnahmeplanung für die industrielle Röntgencomputertomographie T1 - Analytical simulation and acquisition planning for industrial x-ray computed tomography N2 - Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert. N2 - Industrial X-ray computed tomography (CT) can be applied to a large variety of different specimens. The result of a CT measurement is a three-dimensional image containing the position-dependent attenuation coefficient of the specimen. For an optimal imaging CT-measurement parameters depend on both the properties of the CT-System and the specimen. To predict such an optimal parameterization both the physical interactions with X-rays of the CT-System and the specimen, must be taken into account. This thesis sets out to address the modelling of the interactions as well as the automatization of the parameter finding. The latter is based on a figure of merit for CT-measurements. Aim is a simulation-based, automatic parameter optimization method which includes the object-dependency on distinct specimens. The currently existing X-ray simulation methods are enhanced with respect to accuracy and efficiency. Therefore a method for the calibration of the simulation to a real CT-system is presented. Additionally, a model for second order X-ray scattering is developed in order to calculate the specimen-scattered radiation. This is done using an analytical ansatz and no Monte-Carlo method has to be applied. So far, no universal definition of a figure of merit for CT-results has been given in literature. Using Shannon's information theory such a definition is developed. The improvements of the simulation method and the application of the figure of merit for simulation-based parameter optimization are used in examples or are validated using reference methods. KW - Computertomografie KW - Zerstörungsfreie Werkstoffprüfung KW - Optimierung KW - Aufnahmeplanung KW - Analytische Simulation KW - CT KW - Computersimulation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169236 ER - TY - THES A1 - Sturm, Volker Jörg Friedrich T1 - \(^{19}F\) Magnetresonanztomographie zur Bildgebung von Infektionen im Zeitverlauf T1 - \(^{19}F\) magnetic resonance imaging to monitor the timecourse of bacterial infections in vivo N2 - Im Rahmen dieser Arbeit sollten die Möglichkeiten der MR Tomographie erkundet werden bakterielle Infektionen im Zeitverlauf darzustellen. Genauer gesagt sollte das Potential der MR Tomographie anhand eines durch eine Infektion induzierten lokalisierten Abszesses unter Verwendung dreier unterschiedlicher MRT Methoden untersucht werden: Mittels nativem \(T_2\) Kontrast; der Verwendung von superparamagnetischen Eisenoxid Partieln (USPIO) als \(T_2^*\) Kontrastmittel; und dem Einsatz von Perfluorkarbonen (PFC) als \(^{19}F\) MRT Marker (siehe Kapitel 3). Wie erwartet führte die durch die Infektion hervorgerufene Entzündung zu veränderten \(T_2\)-Zeiten, welche auf \(T_2\)-gewichteten MR Bildern eine Lokalisierung des Abszessbereiches erlauben. Jedoch eigneten sich diese Daten aufgrund der graduellen Änderung der \(T_2\)-Zeiten nicht, um eine klare Grenze zwischen Abszess und umliegendem Gewebe zu ziehen. Superparamagnetische Eisenoxidpartikel andererseit haben als MRT Kontrastmittel bereits in den letzten Jahren ihre Fähigkeit unter Beweis gestellt Entzündungen [53, 58, 64] darzustellen. Die Anreicherung dieser Partikel am Rande des Abszesses [53], wie sie auch in unseren MR Daten zu beobachten war, erlaubte eine relativ scharfe Abgrenzung gegenüber dem umgebenden Gewebe in der chronischen Phase der Infektion (Tag 9 p.i.). Hingegen genügte die nur sehr spärlichen Anreicherung von USPIO Partikeln in der akuten Phase der Infektion (Tag 3 p.i.) nicht für eine entsprechende Abgrenzung [58]. Aufgrund der sehr geringen biologischen Häufigkeit und den sehr kurzen Relaxationszeiten von endogenem Fluor eignen sich Perfluorkarbone als Markersubstanz in der MR Tomographie von biologischen Systemen. Insbesondere da PFC Emulsionen durch phagozytierende Zellen aufgenommen werden und im Bereich von Entzündungen akkumulieren [30, 59]. In dieser Arbeit konnte anhand der erhaltenen MRT Daten eine Akkumulation von Perfluorkarbonen nicht nur in der chronischen Phase, sondern auch in der akuten Phase nachgewiesen werden. Diese Daten erlauben somit zu allen untersuchten Zeitpunkten eine Abgrenzung zwischen Infektion und umliegenden Gewebe. Aufgrund der besagten Vorteile wurden die Perfluorkarbone gewählt, um die Möglichkeiten der MR Tomographie zu testen, quantitative Informationen über die schwere der Infektion zu liefern. Als Referenz für die Bakterienbelastung wurden die Biolumineszenzbildgebung (BLI) [49, 50] und die Standardmethode zur Bestimmung der Bakterienbelastung cfu (koloniebildenden Einheiten) herangezogen. Eine Gegenüberstellung der zeitlichen Verläufe der durch die Biolumineszenzbildgebung und durch die cfu erhaltenen Daten liefert eine qualitative Übereinstimmung mit den durch die 19F MR Tomographie erhaltenen Daten. Dies trifft hierbei sowohl auf die über den gesamten Infektionsbereich hinweg summierten Signalamplituden, als auch auf das Volumen zu, in dem Fluor am Ort der Infektion akkumuliert wurde. Im Gegensatz zur Methode der cfu Bestimmung sind die MR Tomographie und die Biolumineszenzbildgebung nicht invasiv und erlauben die Verfolgung des Infektionsverlaufes an einem einzelnen Individuum. Hierzu benötigt, im Gegensatz zur MR Tomographie, die Methode der Biolumineszenzbildgebung jedoch einen speziellen Pathogenstamm. Darüber hinaus ist hervorzuheben, dass die MR Tomographie zudem die Möglichkeit bietet auch morphologische Informationen über den Infektionsbereich und seine Umgebung zu akquirieren. Gerade weil jede dieser Methoden die mit der Infektion einhergehenden Prozesse aus einer leicht anderen Blickrichtung betrachtet, erscheint es sinnvoll diese etablierte Untersuchungsplattform bestehend aus MRT, BLI und cfu über die in dieser Arbeit bearbeitete Fragestellung hinaus näher zu untersuchen. Insbesondere der Aspekt inwieweit die drei Methoden sich gegenseitig ergänzen, könnte einen tieferen Einblick in die Wechselwirkung zwischen Pathogen und Wirt erlauben. Auch wenn für die betrachtete Fragestellung bereits der hierdurchgeführte semiquanitative Ansatz zur Bestimmung der relativen Fluormengen am Ort der Infektion ausreichte, so ist doch im Allgemeinen wünschenswert probenbezogen die Sensitivität der Spule und damit die Güte der Spulenabstimmung zu bestimmen. Hierzu ist jedoch die Aufnahme von \(B_1\)-Karten unabdingbar und wird entsprechend im Kapitel 4 \(Bloch-Siegert B_1^+-Mapping\) näher addressiert. Der Schwerpunkt liegt hierbei, wie der Kapitelname bereits andeutet, auf der Bloch-Siegert Methode, die insbesondere in der präsentierten Implementierung in einer Turbo/ Multi Spin Echo Sequenz eine effiziente Nutzung der relativ langen \(T_\)2-Zeiten der Perfluorkarbone erlaubt. Da zudem die Bloch-Siegert-Methode eine rein phasenbasierte Methode ist, kann neben der aus den Daten erzeugten \(B_1\)-Karte zugleich ein unverfälschtes Magnitudenbild generiert werden, wodurch eine sehr effiziente Nutzung der vorhandenen Messzeit ermöglicht wird. Diese Eigenschaft ist insbesondere für \(^{19}F\) Bildgebung von besonderem Interesse, da hier für jede Messung, aufgrund der üblicherweise relativ geringen Konzentration an Fluoratomen, lange Messzeiten benötigt werden. Zusammenfassend konnte anhand des untersuchten Tiermodells sowohl die Fähigkeit der MR Tomographie nachgewiesen werden Infektionen im Zeitverlauf darzustellen, als auch die Fähigkeit der MR Tomographie quantitative Informationen über den Verlauf der Infektion zu liefern. Desweiteren konnte eine Möglichkeit aufgezeigt werden, welche das Potential hat in vertretbarem Zeitrahmen auch in vivo B1+-Karten auf dem Fluorkanal zu erstellen und so einen zentralen Unsicherheitsfaktor, für Relaxometry und absolute Quantifizierung von \(^{19}F\) Daten in vivo, zu beseitigen. N2 - The main focus of this work is to investigate the potential of magnetic resonance imaging (MRI) to monitor the timecourse of bacterial infections in vivo. More specifically, it focuses on the ability to localize and assess an infection-induced localized bulky abscess using three different MRI methods: the utilization of native \(T_2\) contrast; the usage of super paramagnetic iron oxide nanoparticles (USPIO) as MRI \(T_2^*\) contrast agents; and the application of perfluorcarbons (PFC) as \(^{19}F\) MRI marker (see chapter 3). Study results demonstrated that, as expected the altered \(T_2\) values present in the abscess area permit localization of the infection when using \(T_2\) weighted data. The precise boundary of the abscess, however, could not be determined due to the gradual change of the \(T_2\) values in the area of the infection. Conforming to other studies [53, 58], the MR-detected accumulation of USPIO particles along the abscess rim allowed definition of a fairly exact demarcation line between the abscess and surrounding tissue during the chronic phase of the infection (day 9 p.i.). During the acute phase of the infection (day 3 p.i.), however, the particle accumulation at the abscess rim was too sparse for precise boundary definition [58]. Because of their extremely low biological abundance and the very short relaxation times of endogenous fluorine, PFCs can be imaged background-free in a biological system. Moreover, as emulsified PFCs were taken up by phagocytosing cells and accumulated at the site of inflammation [30, 59], the acquired MRI data showed PFC accumulation during both the chronic and acute phases of infection. It was thus possible to differentiate between the abscess and surrounding tissue at each examined time point. Due to the described advantages, PFCs were chosen to evaluate with MRI the infection severity. As a bacterial burden reference, colony forming units (cfu) and bioluminescence imaging (BLI) [49, 50] were selected. Observation of BLI, cfu and \(^{19}F\) MRI data showed qualitative correlation during the investigated time course. This was true for the accumulated \(^{19}F\) MR signal in the area of infection and for the \(^{19}F\) MR signal volume. Additionally, unlike the cfu method MRI and BLI are non-invasive and thus data can be gathered at multiple time points. However, contrary to BLI, MRI does not require a special pathogen strain. Moreover, it can provide morphological data from an abscess and the surrounding tissue. Because the data delivered by each of these three methods (MRI, BLI and cfu), are based on alternative approaches, additional examinations of the established platform are suggested. For example, the extent to which the methods supplement each other may provide deeper insight into the interaction between pathogen and host. Even though the chosen semi quantitative approach was sufficient in the context of the evaluated issues to estimate the relative fluorine amount at the site of infection, it is in general desirable for each quantification to determine the sensitivity of the coil per sample. To address this issue the Bloch Siegert (BS) based \(B_1\) mapping method implemented in a turbo/ multi spin echo (TSE/MSE) sequence is presented in Chapter 4 Bloch-Siegert \(B_1^+\)-Mapping. Such a sequence allows effective use of the relatively long PFC \(T_2\) times and encodes BS information solely into the phase data. Thus, a \(B_1\) map can be created in addition to the unaltered TSE/MSE magnitude image. In the context of \(^{19}F\) imaging, this is of special interest due to the usually low amounts of fluorine resulting in long measurement times. In conclusion, it was shown that MRI not only enables visualization of the temporal behavior of infections on the investigated animal model, but it can also provide quantitative information about the progress of the infection. Additionally, a method potentially allowing in vivo B1+ mapping was introduced. This is an important step to improve the reliability of relaxometry and absolute quantification of in vivo \(^{19}F\) MRI. KW - Kernspintomografie KW - Bakterielle Infektion KW - 19F MR KW - Perfluorkarbon KW - Infektionsbildgebung KW - Bloch Siegert KW - B1 Mapping KW - Kontrastmittel Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122851 ER - TY - THES A1 - Weick, Stefan T1 - Retrospektive Bewegungskorrektur zur hochaufgelösten Darstellung der menschlichen Lunge mittels Magnetresonanztomographie T1 - Retrospective Motion Correction for High Resolution Magnetic Resonance Imaging of the Human Lung N2 - Ziel dieser Arbeit war es, das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung mittels der MRT darzustellen. Um trotz der niedrigen Protonendichte der Lunge und der geforderten hohen Auflösung ausreichend Signal für eine verlässliche Diagnostik zu erhalten, sind Aufnahmezeiten von einigen Minuten nötig. Um die Untersuchung für den Patienten angenehmer zu gestalten oder auf Grund der eingeschränkten Fähigkeit eines Atemstopps überhaupt erst zu ermöglichen, war eine Anforderung, die Aufnahmen in freier Atmung durchzuführen. Dadurch entstehen allerdings Bewegungsartefakte, die die Diagnostik stark beeinträchtigen und daher möglichst vermieden werden müssen. Für eine Bewegungskompensation der Daten muss die auftretende Atembewegung detektiert werden. Die Bewegungsdetektion kann durch externe Messgeräte (Atemgurt oder Spirometer) oder durch eine zusätzliche Anregungen erfolgen (konventionelle Navigatoren) erfolgen. Nachteile dieser Methoden bestehen darin, dass die Bewegung während der Atmung nicht direkt verfolgt wird, dass elektronische Messgeräte in die Nähe des Tomographen gebracht werden und das die Patienten zusätzlich vorbereitet und eingeschränkt werden. Des Weiteren erfordert eine zusätzliche Anregung extra Messzeit und kann unter Umständen die Magnetisierung auf unterwünschte Weise beeinflussen. Um die angesprochenen Schwierigkeiten der Bewegungsdetektion zu umgehen, wurden in dieser Arbeit innerhalb einer Anregung einer 3d FLASH-Sequenz sowohl Bilddaten- als auch Navigatordaten aufgenommen. Als Navigator diente dabei das nach der Rephasierung aller bildgebenden Gradienten entstehende Signal (DC Signal). Das DC Signal entspricht dabei der Summe aller Signale, die mit einem bestimmten Spulenelement detektiert werden können. Bewegt sich beispielsweise die Leber bedingt durch die Atmung in den Sensitivitätsbereich eines Spulenelementes, wird ein stärkeres DC Signal detektiert werden. Je nach Positionierung auf dem Körper kann so die Atembewegung mit einzelnen räumlich lokalisierten Spulenelementen nachverfolgt werden. Am DC Signalverlauf des für die Bewegungskorrektur ausgewählten Spulenelementes sind dann periodische Signalschwankungen zu erkennen. Zusätzlich können aus dem Verlauf Expirations- von Inspirationszuständen unterschieden werden, da sich Endexpirationszustände im Regelfall durch eine längere Verweildauer auszeichnen. Grundsätzlich kann das DC Signal vor oder nach der eigentlichen Datenaufnahme innerhalb einer Anregung aufgenommen werden. Auf Grund der kurzen Relaxationszeit T∗2 des Lungengewebes fällt das Signal nach der RF Anregung sehr schnell ab. Um möglichst viel Signal zu erhalten sollten, wie in dieser Arbeit gezeigt wurde, innerhalb einer Anregung zuerst die Bilddaten und danach die Navigatordaten aufgenommen werden. Dieser Ansatz führt zu einer Verkürzung der Echozeit TE um 0.3 ms und damit zu einem SNR Gewinn von etwa 20 %. Gleichzeitig ist das verbleibende Signal nach der Datenakquisition und Rephasierung der bildgebenden Gradienten noch ausreichend um die Atembewegung zu erfassen und somit eine Bewegungskorrektur der Daten (Navigation) zu ermöglichen. Um eine retrospektive Bewegungskorrektur durchführen zu können, müssen Akzeptanzbedingungen (Schwellenwerte) für die Datenauswahl festgelegt werden. Bei der Wahl des Schwellenwertes ist darauf zu achten, dass weder zu wenige noch zu viele Daten akzeptiert werden. Akzeptiert man sehr wenige Daten, zeichnen sich die Rekonstruktionen durch einen scharfen Übergang zwischen Lunge und Diaphragma aus, da man sehr wenig Bewegung in den Rekonstruktionen erlaubt. Gleichzeitig erhöht sich allerdings das Risiko, dass nach der Navigation Linien fehlen. Dies führt zu Einfaltungsartefakten, die in Form von gestörten Bildintensitäten in den Rekonstruktionen zu sehen sind und die diagnostische Aussagekraft einschränken. Um Einfaltungsartefakte zu vermeiden sollte der Schwellenwert so gewählt werden, dass nach der Datenauswahl keine Linien fehlen. Aus dieser Anforderung lässt sich ein maximaler Schwellenwert ableiten. Akzeptiert man dagegen sehr viele Daten, zeichnen sich die Rekonstruktionen durch erhöhtes Signal und das vermehrte Auftreten von Bewegungsartefakten aus. In diesem Fall müsste der Arzt entscheiden, ob Bewegungsartefakte die Diagnostik zu stark beeinflussen. Wählt man den Schwellenwert so, dass weder Linien fehlen noch zu viel Bewegung erlaubt wird, erhält man Rekonstruktionen die sich durch einen scharfen Diaphragmaübergang auszeichnen und in denen noch kleinste Gefäße auch in der Nähe des Diaphragmas deutlich zu erkennen sind. Hierfür haben sich Schwellenwerte, die zu einer Datenakzeptanz von ca. 40 % führen als günstig erwiesen. Um Einfaltungsartefakte auf Grund der retrospektiven Datenauswahl zu verhindern, muss das Bildgebungsvolumen mehrfach abgetastet werden. Dadurch wird gewährleistet, dass für die letztendliche Rekonstruktion ausreichend Daten zur Verfügung stehen, wobei mehrfach akzeptierte Daten gemittelt werden. Dies spielt auf Grund der niedrigen Protonendichte der Lunge eine wesentliche Rolle in der Rekonstruktion hochaufgelöster Lungendatensätze. Weiterhin führt das Mitteln von mehrfach akzeptierten Daten zu einer Unterdrückung der sogenannten Ghost Artefakte, was am Beispiel der Herzbewegung in der Arbeit gezeigt wird. Da die Messungen unter freier Atmung durchgeführt werden und keine zusätzlichen externen Messgeräte angeschlossen werden müssen, stellte die Untersuchung für die Patienten in dieser Arbeit kein Problem dar. Im ersten Teil dieser wurde Arbeit gezeigt, dass sich mit Hilfe des DC Signales als Navigator und einer retrospektiven Datenauswahl das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung von beispielsweise 1.6 x 1.6 x 4 mm3 innerhalb von 13 min. darstellen lässt. Die Anwendbarkeit der vorgestellten Methode zur Bewegungskorrektur wurde neben Probanden auch an Patienten demonstriert. Da wie bereits beschrieben das Bildgebungsvolumen mehrfach abgetastet werden muss, wiederholt sich auch die Abfolge der für die Bildgebung verantwortlichen Gradienten periodisch. Da sich der Atemzyklus aber auch periodisch wiederholt, kann es zu Korrelationen zwischen der Atmung und den wiederholten Messungen kommen. Dies führt dazu, dass auch nach vielen wiederholten Messungen immer noch größere Bereiche fehlender Linien im k-Raum bleiben, was zu Artefakten in den Rekonstruktionen führt. Dies konnte im Falle der konventionellen Bewegungskorrektur in den Gatingmasken, die die Verteilung und Häufigkeit der einzelnen akzeptierten Phasenkodierschritte im k-Raum zeigen, beobachtet werden. Da eine vorsätzliche Unterbrechung der Atemperiodizität (der Patient wird dazu angehalten, seine Atemfrequenz während der Messung absichtlich zu variieren) zur Vermeidung der angesprochenen Korrelationen nicht in Frage kommt, musste die Periodizität in der Datenaufnahme unterbrochen werden. In dieser Arbeit wurde dies durch eine quasizufällige Auswahl von Phasen- und Partitionskodiergradienten erreicht, da Quasizufallszahlen so generiert werden, dass sie unabhängig von ihrer Anzahl einen Raum möglichst gleichförmig ausfüllen. Die quasizufällige Datenaufnahme führt deshalb dazu, das sowohl akzeptierte als auch fehlende Linien nach der Bewegungskorrektur homogen im k-Raum verteilt auftreten. Vergleicht man das auftreten von Ghosting zeichnen sich die quasizufälligen Rekonstruktionen im Vergleich zur konventionellen Datenaufnahme durch eine verbesserte Reduktion von Ghost Artefakten aus. Dies ist auf die homogene Verteilung mehrfach akzeptierter Linien im k-Raum zurückzuführen. Die homogenere Verteilung von fehlenden Linien im k-Raum führt weiterhin zu einer wesentlich stabileren Rekonstruktion fehlender Linien mit parallelen MRT-Verfahren (z.B. iterativem Grappa). Dies wird umso deutlicher je höher der Anteil fehlender Linien im k-Raum wird. Im Falle der konventionellen Datenaufnahme werden die zusammenhängenden Bereiche fehlender Linien immer größer, was eine erfolgreiche Rekonstruktion mit iterativem Grappa unmöglich macht. Im Falle der quasizufälligen Datenaufnahme dagegen können auch Datensätze in denen 40% der Linien fehlen einfaltungsartefaktfrei rekonstruiert werden. Im weiteren Verlauf der Arbeit wurde gezeigt, wie die Stabilität der iterativen Grappa Rekonstruktion im Falle der quasizufälligen Datenaufnahme für eine erhebliche Reduktion der gesamten Messzeit genutzt werden kann. So ist in einer Messzeit von nur 74s die Rekonstruktion eines artefaktfreien und bewegungskorrigierten dreidimensionalen Datensatzes der menschlichen Lunge mit einer Auflösung von 2 x 2 x 5 mm3 möglich. Des Weiteren erlaubt die quasizufällige Datenaufnahme in Kombination mit iterativem Grappa die Rekonstruktion von Datensätzen unterschiedlicher Atemphasen von Inspiration bis Expiration (4D Bildgebung). Nach einer Messzeit von 15min. wurden 19 unterschiedliche Atemzustände rekonstruiert, wobei sich der Anteil der fehlenden Linien zwischen 0 und 20 % lag. Im Falle der konventionellen Datenaufnahme wäre eine wesentlich längere Messzeit nötig gewesen, um ähnliche Ergebnisse zu erhalten. Zum Schluss soll noch ein Ausblick über mögliche Weiterentwicklungen und Anwendungsmöglichkeiten, die sich aus den Erkenntnissen dieser Arbeit ergeben haben, gegeben werden. So könnte das quasizufällige Aufnahmeschema um eine Dichtegewichtung erweitert werden. Hierbei würde der zentrale k-Raum Bereich etwas häufiger als die peripheren Bereiche akquiriert werden. Dadurch sollte die iterative Grappa Rekonstruktion noch stabiler funktionieren und Ghost Artefakte besser reduziert werden. Die Verteilung der Linien sollte allerdings nicht zu inhomogen werden, um größere Lücken im k-Raum zu vermeiden. Darüber hinaus könnte die vorgestellte Methode der Bewegungskompensation auch für die Untersuchung anderer Organe oder Körperteile verwendet werden. Voraussetzung wäre lediglich das Vorhandensein dezidierter Spulenanordnungen, mit denen die Bewegung nachverfolgt werden kann. So ist beispielsweise eine dynamische Bildgebung des frei und aktiv bewegten Knies möglich, wobei zwischen Beugung und Streckung durch die erste Ableitung des zentralen k-Raum Signales unterschieden werden kann. Dies kann zusätzliche Diagnoseinformationen liefern oder für Verlaufskontrollen nach Operationen benutzt werden [15]. Eine Weiterentwicklung mit hohem klinischen Potential könnte die Kombination der in dieser Arbeit vorgestellten retrospektiven Bewegungskorrektur mit einer Multi- Gradienten-Echo Sequenz darstellen. Hierzu musste die bestehende Sequenz lediglich um eine mehrfache Abfolge von Auslesegradienten innerhalb einer Anregung erweitert werden. Dies ermöglicht eine bewegungskorrigierte voxelweise Bestimmung der transversalen Relaxationszeit T∗2 in hoher räumlicher Auflösung. Unter zusätzlicher Sauerstoffgabe kann es zu einer Veränderung von T∗2 kommen, die auf den sogenannten BOLD Effekt (Blood Oxygen Level Dependent) zurückzuführen ist. Aus dieser Änderung könnten Rückschlüsse auf hypoxische Tumorareale gezogen werden. Da diese eine erhöhte Strahlenresistenz aufweisen, könnte auf diese Bereiche innerhalb des Tumors eine erhöhte Strahlendosis appliziert und so möglicherweise Behandlungsmisserfolge reduziert werden. Gleichzeitig kann durch die 4D Bildgebung eine mögliche Tumorbewegung durch die Atmung erfasst und diese Information ebenfalls in der Bestrahlungsplanung benutzt werden. Die Lungen MRT könnte somit um eine hochaufgelöste dreidimensionale funktionelle Bildgebung erweitert werden. N2 - The goal of this work was to depict the whole lung volume by MRI in high spatial resolution. To obtain sufficient signal for a reliable diagnosis despite the inherently low proton density of the lung and the requested high spatial resolution, total acquisition times of a few minutes are mandatory. Simultaneously, the measurements should be performed under free breathing conditions making patient examinations more comfortable or possible for patients with limited breath holding capabilities. However, free breathing leads to motion artifacts which can severely influence the diagnostic value of the images and hence have to be avoided. To compensate for motion the prevalent breathing pattern has to be detected. This can be achieved by external measurement devices such as a respiration belt or a spirometer or by conventional navigator echoes using an additional excitation pulse. Drawbacks of these methods are that the respiratory motion is detected only indirectly, that electronic devices have to be used near the MRI machine and the patients have to be prepared and are strongly restricted. Furthermore, additional excitation pulses will prolong the total acquisition time and may affect the magnetization adversely. To overcome these limitations of motion detection in the present work, the image as well as the navigator data was acquired within one excitation of a FLASH sequence. The resulting central k-space signal (DC signal) after rephasing of all imaging gradients was used as a navigator signal. The DC signal represents the sum of all signals that can be detected with a single receiver coil element. If the liver is for example moving in the sensitivity area of one coil element due to breathing, an increased DC signal will be detected. Depending on their local position on the body the locally confined coil elements are able to track respiratory motion. The time course of the DC signal of the selected coil element for respiratory motion compensation will depict periodic signal variations accordingly. Additionally, respiratory phases of expiration can be distinguished from inspiratory phases because the resting times in end-expiratory phases are usually longer compared to end-inspiratory phases. The DC signal can be acquired either before or after the actual image data acquisition within one excitation. The short T2* of the human lung tissue leads to a rapid signal decay after the excitation. As shown in this thesis, the DC signal should be acquired after the image data within one excitation. This approach allows for echo time (TE) reduction of 0.3 ms leading to a signal benefit of approximately 20 %. Simultaneously, the remaining signal after image data acquisition and rephasing of all imaging gradients is still sufficient to track respiratory motion and can therefore be used for motion compensation of the acquired data. In order to compensate for motion retrospectively, threshold values for data acceptance have to be defined. Setting the threshold value, neither too less nor too much data should be accepted. Accepting very few data leads to sharp transition between the lung and the diaphragm because not much motion is allowed in the reconstruction process. On the other hand, disturbed signal intensity can be observed because of under-sampling artifacts due to missing lines after gating. These artifacts can restrict the diagnostic value of the reconstructions. Therefore, the selected threshold value should lead to a fully sampled k-space after gating. This requirement can be used to define the maximum threshold value for data acceptance. On the contrary, accepting very much data leads to higher signal intensity but also to more distinctive motion artifacts. In this case, the physician has to decide whether the motion artifacts affect his diagnosis too much. A moderate threshold value leads to a fully sampled k-space as well as good motion artifact compensation. This results in reconstructions that are characterized by a sharp depiction of small vessels even near the diaphragm. For this, threshold values leading to a data acceptance of about 40 % turned out to be beneficial. To avoid under-sampling artifacts because of retrospective gating, the imaging volume has to be acquired several times. This ensures that enough data is available for the final reconstruction whereas multiple accepted data is averaged. Averaging is essential for the reconstruction of high resolution data sets because of the inherently low proton density of the lung. Furthermore it leads to the reduction of ghost artifacts as is shown using the example of heart motion in this work. As no external measurement devices were used and the data was acquired under free breathing conditions the examinations posed no problem for the patients within this work. It was shown so far that the DC signal in combination with retrospective gating can be used to reconstruct high resolution 3d lung data sets with a resolution of 1.6 x 1.6 x 4 mm3 within 13 min., for instance. The applicability of the presented method for motion compensation was shown for volunteers as well as patients. Since as already described the imaging volume must be acquired several times, the series of gradients for spatial encoding are repeated periodically. As the respiratory cycle is periodically as well, correlations between the repeated measurements and the breathing cycle can occur. Therefore, even after many repeated measurements large areas of missing k-space lines can remain, leading to artifacts in the reconstructions. This can be observed in the gating masks, showing the distribution of accepted and missing lines in k-space, in case of conventional motion compensation used in this work so far. To avoid the aforementioned correlations, the periodicity in the repeated acquisitions has to be interrupted because of suspending the periodic breathing pattern of patients deliberately would be a serious intervention and is therefore ineligible. This was accomplished by a quasi-random selection of the phase and partition encoding gradients as quasi-random numbers are generated to fill the space as uniformly as possible regardless of their number. Therefore, accepted lines as well as missing lines are uniformly distributed in k-space after retrospective gating. A more uniform distribution of multiple accepted k-space lines in case of quasirandom sampling leads to an improved reduction of Ghost-Artifacts compared to conventional sampling. Furthermore, the more uniform distribution of missing kspace lines leads a considerably more stable reconstruction of missing lines using parallel imaging techniques (as iterative Grappa for example). This is getting more distinct the higher the proportion of missing k-space lines is. The contiguous areas of missing k-space lines are becoming increasingly large in case of conventional sampling, making a successful reconstruction using iterative Grappa impossible. In contrast, quasi-random sampling enables for the successful reconstruction of artifact free images even when 40 % of the acquired lines were missing after retrospective gating. In addition, the stability of the iterative GRAPPA reconstructions in case of quasirandom sampling allows for a substantial reduction of the total acquisition time. Thus, an artifact free motion compensated data set of 2 x 2 x 5 mm3 resolution could be reconstructed for a measurement time of only 74s. Furthermore, quasi-random sampling in combination with iterative Grappa enables for the reconstruction of data sets of different respiratory phases from inspiration to expiration (4d imaging). Accordingly, 19 different respiratory phases could be reconstructed after 15min of data acquisition. The percentage of missing lines was between 0 and 20 %. Hence, in case of conventional sampling a considerably longer measurement time would have been required to achieve similar results. KW - Kernspintomografie KW - Retrospektive Bewegungskorrektur KW - Magnetresonanztomographie KW - Lungenbildbgebung KW - freie Atmung KW - Retrospective Motion Compensation KW - DC-Gating KW - Lung Imaging KW - free breathing KW - Lunge Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-124084 ER - TY - THES A1 - Winkler, Marco T1 - On the Role of Triadic Substructures in Complex Networks T1 - Über die Bedeutung von Dreiecksstrukturen in komplexen Netzwerken N2 - In the course of the growth of the Internet and due to increasing availability of data, over the last two decades, the field of network science has established itself as an own area of research. With quantitative scientists from computer science, mathematics, and physics working on datasets from biology, economics, sociology, political sciences, and many others, network science serves as a paradigm for interdisciplinary research. One of the major goals in network science is to unravel the relationship between topological graph structure and a network’s function. As evidence suggests, systems from the same fields, i.e. with similar function, tend to exhibit similar structure. However, it is still vague whether a similar graph structure automatically implies likewise function. This dissertation aims at helping to bridge this gap, while particularly focusing on the role of triadic structures. After a general introduction to the main concepts of network science, existing work devoted to the relevance of triadic substructures is reviewed. A major challenge in modeling triadic structure is the fact that not all three-node subgraphs can be specified independently of each other, as pairs of nodes may participate in multiple of those triadic subgraphs. In order to overcome this obstacle, we suggest a novel class of generative network models based on so called Steiner triple systems. The latter are partitions of a graph’s vertices into pair-disjoint triples (Steiner triples). Thus, the configurations on Steiner triples can be specified independently of each other without overdetermining the network’s link structure. Subsequently, we investigate the most basic realization of this new class of models. We call it the triadic random graph model (TRGM). The TRGM is parametrized by a probability distribution over all possible triadic subgraph patterns. In order to generate a network instantiation of the model, for all Steiner triples in the system, a pattern is drawn from the distribution and adjusted randomly on the Steiner triple. We calculate the degree distribution of the TRGM analytically and find it to be similar to a Poissonian distribution. Furthermore, it is shown that TRGMs possess non-trivial triadic structure. We discover inevitable correlations in the abundance of certain triadic subgraph patterns which should be taken into account when attributing functional relevance to particular motifs – patterns which occur significantly more frequently than expected at random. Beyond, the strong impact of the probability distributions on the Steiner triples on the occurrence of triadic subgraphs over the whole network is demonstrated. This interdependence allows us to design ensembles of networks with predefined triadic substructure. Hence, TRGMs help to overcome the lack of generative models needed for assessing the relevance of triadic structure. We further investigate whether motifs occur homogeneously or heterogeneously distributed over a graph. Therefore, we study triadic subgraph structures in each node’s neighborhood individually. In order to quantitatively measure structure from an individual node’s perspective, we introduce an algorithm for node-specific pattern mining for both directed unsigned, and undirected signed networks. Analyzing real-world datasets, we find that there are networks in which motifs are distributed highly heterogeneously, bound to the proximity of only very few nodes. Moreover, we observe indication for the potential sensitivity of biological systems to a targeted removal of these critical vertices. In addition, we study whole graphs with respect to the homogeneity and homophily of their node-specific triadic structure. The former describes the similarity of subgraph distributions in the neighborhoods of individual vertices. The latter quantifies whether connected vertices are structurally more similar than non-connected ones. We discover these features to be characteristic for the networks’ origins. Moreover, clustering the vertices of graphs regarding their triadic structure, we investigate structural groups in the neural network of C. elegans, the international airport-connection network, and the global network of diplomatic sentiments between countries. For the latter we find evidence for the instability of triangles considered socially unbalanced according to sociological theories. Finally, we utilize our TRGM to explore ensembles of networks with similar triadic substructure in terms of the evolution of dynamical processes acting on their nodes. Focusing on oscillators, coupled along the graphs’ edges, we observe that certain triad motifs impose a clear signature on the systems’ dynamics, even when embedded in a larger network structure. N2 - Im Zuge des Wachstums des Internets und der Verfügbarkeit nie da gewesener Datenmengen, hat sich, während der letzten beiden Jahrzehnte, die Netzwerkwissenschaft zu einer eigenständigen Forschungsrichtung entwickelt. Mit Wissenschaftlern aus quantitativen Feldern wie der Informatik, Mathematik und Physik, die Datensätze aus Biologie, den Wirtschaftswissenschaften, Soziologie, Politikwissenschaft und vielen weiteren Anwendungsgebieten untersuchen, stellt die Netzwerkwissenschaft ein Paradebeispiel interdisziplinärer Forschung dar. Eines der grundlegenden Ziele der Netzwerkwissenschaft ist es, den Zusammenhang zwischen der topologischen Struktur und der Funktion von Netzwerken herauszufinden. Es gibt zahlreiche Hinweise, dass Netz-werke aus den gleichen Bereichen, d.h. Systeme mit ähnlicher Funktion, auch ähnliche Graphstrukturen aufweisen. Es ist allerdings nach wie vor unklar, ob eine ähnliche Graphstruktur generell zu gleicher Funktionsweise führt. Es ist das Ziel der vorliegenden Dissertation, zur Klärung dieser Frage beizutragen. Das Hauptaugenmerk wird hierbei auf der Rolle von Dreiecksstrukturen liegen. Nach einer allgemeinen Einführung der wichtigsten Grundlagen der Theorie komplexer Netzwerke, wird eine Übersicht über existierende Arbeiten zur Bedeutung von Dreiecksstrukturen gegeben. Eine der größten Herausforderungen bei der Modellierung triadischer Strukturen ist die Tatsache, dass nicht alle Dreiecksbeziehungen in einem Graphen unabhängig voneinander bestimmt werden können, da zwei Knoten an mehreren solcher Dreiecksbeziehungen beteiligt sein können. Um dieses Problem zu lösen, führen wir, basierend auf sogenannten Steiner-Tripel-Systemen, eine neue Klasse generativer Netzwerkmodelle ein. Steiner-Tripel-Systeme sind Zerlegungen der Knoten eines Graphen in paarfremde Tripel (Steiner-Tripel). Daher können die Konfigurationen auf Steiner-Tripeln unabhängig voneinander gewählt werden, ohne dass dies zu einer Überbestimmung der Netzwerkstruktur führen würde. Anschließend untersuchen wir die grundlegendste Realisierung dieser neuen Klasse von Netzwerkmodellen, die wir das triadische Zufallsgraph-Modell (engl. triadic random graph model, TRGM) nennen. TRGMs werden durch eine Wahrscheinlichkeitsverteilung über alle möglichen Dreiecksstrukturen parametrisiert. Um ein konkretes Netzwerk zu erzeugen wird für jedes Steiner-Tripel eine Dreiecksstruktur gemäß der Wahrscheinlichkeitsverteilung gezogen und zufällig auf dem Tripel orientiert. Wir berechnen die Knotengradverteilung des TRGM analytisch und finden heraus, dass diese einer Poissonverteilung ähnelt. Des Weiteren wird gezeigt, dass TRGMs nichttriviale Dreiecksstrukturen aufweisen. Außerdem finden wir unvermeidliche Korrelationen im Auftreten bestimmter Subgraphen, derer man sich bewusst sein sollte. Insbesondere wenn es darum geht, die Bedeutung sogenannter Motive (Strukturen, die signifikant häufiger als zufällig erwartet auftreten) zu beurteilen. Darüber hinaus wird der starke Einfluss der Wahrscheinlichkeitsverteilung auf den Steiner-Tripeln, auf die generelle Dreiecksstruktur der erzeugten Netzwerke gezeigt. Diese Abhängigkeit ermöglicht es, Netzwerkensembles mit vorgegebener Dreiecksstruktur zu konzipieren. Daher helfen TRGMs dabei, den bestehenden Mangel an generativen Netzwerkmodellen, zur Beurteilung der Bedeutung triadischer Strukturen in Graphen, zu beheben. Es wird ferner untersucht, wie homogen Motive räumlich über Graphstrukturen verteilt sind. Zu diesem Zweck untersuchen wir das Auftreten von Dreiecksstrukturen in der Umgebung jedes Knotens separat. Um die Struktur individueller Knoten quantitativ erfassen zu können, führen wir einen Algorithmus zur knotenspezifischen Musterauswertung (node-specific pattern mining) ein, der sowohl auf gerichtete, als auch auf Graphen mit positiven und negativen Kanten angewendet werden kann. Bei der Analyse realer Datensätze beobachten wir, dass Motive in einigen Netzen hochgradig heterogen verteilt, und auf die Umgebung einiger, weniger Knoten beschränkt sind. Darüber hinaus finden wir Hinweise auf die mögliche Fehleranfälligkeit biologischer Systeme auf ein gezieltes Entfernen ebendieser Knoten. Des Weiteren studieren wir ganze Graphen bezüglich der Homogenität und Homophilie ihrer knotenspezifischen Dreiecksmuster. Erstere beschreibt die Ähnlichkeit der lokalen Dreiecksstrukturen zwischen verschiedenen Knoten. Letztere gibt an, ob sich verbundene Knoten bezüglich ihrer Dreiecksstruktur ähnlicher sind, als nicht verbundene Knoten. Wir stellen fest, dass diese Eigenschaften charakteristisch für die Herkunft der jeweiligen Netzwerke sind. Darüber hinaus gruppieren wir die Knoten verschiedener Systeme bezüglich der Ähnlichkeit ihrer lokalen Dreiecksstrukturen. Hierzu untersuchen wir das neuronale Netz von C. elegans, das internationale Flugverbindungsnetzwerk, sowie das Netzwerk internationaler Beziehungen zwischen Staaten. In Letzterem finden wir Hinweise darauf, dass Dreieckskonfigurationen, die nach soziologischen Theorien als unbalanciert gelten, besonders instabil sind. Schließlich verwenden wir unser TRGM, um Netzwerkensembles mit ähnlicher Dreiecksstruktur bezüglich der Eigenschaften dynamischer Prozesse, die auf ihren Knoten ablaufen, zu untersuchen. Wir konzentrieren uns auf Oszillatoren, die entlang der Kanten der Graphen miteinander gekoppelt sind. Hierbei beobachten wir, dass bestimmte Dreiecksmotive charakteristische Merkmale im dynamischen Verhalten der Systeme hinterlassen. Dies ist auch der Fall, wenn die Motive in eine größere Netzwerkstruktur eingebettet sind. KW - Netzwerk KW - Komplexes System KW - Substruktur KW - Dreieck KW - Networks KW - Complex Systems KW - Statistics KW - Machine Learning KW - Biological Networks KW - Statistische Physik KW - Statistische Mechanik KW - Data Mining KW - Maschinelles Lernen KW - Graphentheorie Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-116022 SN - 978-3-7375-5654-5 PB - epubli GmbH CY - Berlin ER - TY - INPR A1 - Dandekar, Thomas T1 - Our universe may have started by Qubit decoherence N2 - Our universe may have started by Qubit decoherence: In quantum computers, qubits have all their states undefined during calculation and become defined as output (“decoherence”). We study the transition from an uncontrolled, chaotic quantum vacuum (“before”) to a clearly interacting “real world”. In such a cosmology, the Big Bang singularity is replaced by a condensation event of interacting strings. This triggers a crystallization process. This avoids inflation, not fitting current observations: increasing long-range interactions limit growth and crystal symmetries ensure the same laws of nature and basic symmetries over the whole crystal. Tiny mis-arrangements provide nuclei of superclusters and galaxies and crystal structure allows arrangement of dark (halo regions) and normal matter (galaxy nuclei) for galaxy formation. Crystals come and go: an evolutionary cosmology is explored: entropic forces from the quantum soup “outside” of the crystal try to dissolve it. This corresponds to dark energy and leads to a “big rip” in 70 Gigayears. Selection for best growth and condensation events over generations of crystals favors multiple self-organizing processes within the crystal including life or even conscious observers in our universe. Philosophically this theory shows harmony with nature and replaces absurd perspectives of current cosmology. Independent of cosmology, we suggest that a “real world” (so our everyday macroscopic world) happens only inside a crystal. “Outside” there is wild quantum foam and superposition of all possibilities. In our crystallized world the vacuum no longer boils but is cooled down by the crystallization event, space-time exists and general relativity holds. Vacuum energy becomes 10**20 smaller, exactly as observed in our everyday world. We live in a “solid” state, within a crystal, the n quanta which build our world have all their different m states nicely separated. There are only nm states available for this local “multiverse”. The arrow of entropy for each edge of the crystal forms one fate, one world-line or clear development of our world, while layers of the crystal are different system states. Mathematical leads from loop quantum gravity (LQG) point to required interactions and potentials. Interaction potentials for strings or loop quanta of any dimension allow a solid, decoherent state of quanta challenging to calculate. However, if we introduce here the heuristic that any type of physical interaction of strings corresponds just to a type of calculation, there is already since 1898 the Hurwitz theorem showing that then only 1D, 2D, 4D and 8D (octonions) allow complex or hypercomplex number calculations. No other hypercomplex numbers and hence dimensions or symmetries are possible to allow calculations without yielding divisions by zero. However, the richest solution allowed by the Hurwitz theorem, octonions, is actually the observed symmetry of our universe, E8. Standard physics such as condensation, crystallization and magnetization but also solid-state physics and quantum computing allow us to show an initial mathematical treatment of our new theory by LQG to describe the cosmological state transformations by equations, and, most importantly, point out routes to parametrization of free parameters looking at testable phenomena, experiments and formulas that describe processes of crystallization, protein folding, magnetization, solid-state physics and quantum computing. This is presented here for LQG, for string theory it would be more elegant but was too demanding to be shown here. Note: While my previous Opus server preprint “A new cosmology of a crystallization process (decoherence) from the surrounding quantum soup provides heuristics to unify general relativity and quantum physics by solid state physics” (https://doi.org/10.25972/OPUS-23076) deals with the same topics and basic formulas, this new version is improved: clearer in title, better introduction, more stringent in its mathematics and improved discussion of the implications including quantum computing, hints for parametrization and connections to LQG and other current cosmological efforts. This 5th of June 2021 version is again an OPUS preprint, but this will next be edited for Archives https://arxiv.org. KW - cosmology KW - quantum computing KW - loop quantum gravity KW - qubit KW - decoherence KW - crystallization Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-239181 ER - TY - THES A1 - Neumann, Daniel T1 - Advances in Fast MRI Experiments T1 - Neue Methoden in der MR-Bildgebung N2 - Magnetic Resonance Imaging (MRI) is a non-invasive medical imaging technique, that is rou- tinely used in clinical practice for detection and diagnosis of a wide range of different diseases. In MRI, no ionizing radiation is used, making even repeated application unproblematic. This is an important advantage over other common imaging methods such as X-rays and Computer To- mography. One major drawback of MRI, however, are long acquisition times and associated high costs of experiments. Since the introduction of MRI, several important technical developments have been made to successfully reduce acquisition times. In this work, novel approaches were developed to increase the efficiency of MRI acquisitions. In Chapter 4, an improved radial turbo spin-echo (TSE) combined acquisition and reconstruction strategy was introduced. Cartesian turbo spin-echo sequences [3] are widely used especially for the detection and diagnosis of neurological pathologies, as they provide high SNR images with both clinically important proton density and T2 contrasts. TSE acquisitions combined with radial sampling are very efficient, since it is possible to obtain a number of ETL images with different contrasts from a single radial TSE measurement [56–58]. Conventionally, images with a particular contrast are obtained from both radial and Cartesian TSE acquisitions by combining data from different echo times into a single image. In the radial case, this can be achieved by employing k-space weighted image contrast (KWIC) reconstruction. In KWIC, the center region of k-space is filled exclusively with data belonging to the desired contrast while outer regions also are assembled with data acquired at other echo times. However, this data sharing leads to mixed contrast contributions to both Cartesian and radial TSE images. This is true especially for proton density weighted images and therefore may reduce their diagnostic value. In the proposed method, an adapted golden angle reordering scheme is introduced for radial TSE acquisitions, that allows a free choice of the echo train length and provides high flexibility in image reconstruction. Unwanted contrast contaminations are greatly reduced by employing a narrow-band KWIC filter, that restricts data sharing to a small temporal window around the de- sired echo time. This corresponds to using fewer data than required for fully sampled images and consequently leads to images exhibiting aliasing artifacts. In a second step, aliasing-free images are obtained using parallel imaging. In the neurological examples presented, the CG-SENSE algorithm [42] was chosen due to its stable convergence properties and its ability to reconstruct arbitrarily sampled data. In simulations as well as in different in vivo neurological applications, no unwanted contrast contributions could be observed in radial TSE images reconstructed with the proposed method. Since this novel approach is easy to implement on today’s scanners and requires low computational power, it might be valuable for the clinical breakthrough of radial TSE acquisitions. In Chapter 5, an auto-calibrating method was introduced to correct for stimulated echo contribu- tions to T2 estimates from a mono-exponential fit of multi spin-echo (MSE) data. Quantification of T2 is a useful tool in clinical routine for the detection and diagnosis of diseases as well as for tis- sue characterization. Due to technical imperfections, refocusing flip angles in a MSE acquisition deviate from the ideal value of 180○. This gives rise to significant stimulated echo contributions to the overall signal evolution. Therefore, T2 estimates obtained from MSE acquisitions typically are notably higher than the reference. To obtain accurate T2 estimates from MSE acquisitions, MSE signal amplitudes can be predicted using the extended phase graph (EPG, [23, 24]) algo- rithm. Subsequently, a correction factor can be obtained from the simulated EPG T2 value and applied to the MSE T2 estimates. However, EPG calculations require knowledge about refocus- ing pulse amplitudes, T2 and T1 values and the temporal spacing of subsequent echoes. While the echo spacing is known and, as shown in simulations, an approximate T1 value can be assumed for high ratios of T1/T2 without compromising accuracy of the results, the remaining two parameters are estimated from the data themselves. An estimate for the refocusing flip angle can be obtained from the signal intensity ratio of the second to the first echo using EPG. A conventional mono- exponential fit of the MSE data yields a first estimate for T2. The T2 correction is then obtained iteratively by updating the T2 value used for EPG calculations in each step. For all examples pre- sented, two iterations proved to be sufficient for convergence. In the proposed method, a mean flip angle is extracted across the slice. As shown in simulations, this assumption leads to greatly reduced deviations even for more inhomogeneous slice profiles. The accuracy of corrected T2 values was shown in experiments using a phantom consisting of bottles filled with liquids with a wide range of different T2 values. While T2 MSE estimates were shown to deviate significantly from the spin-echo reference values, this is not the case for corrected T2 values. Furthermore, applicability was demonstrated for in vivo neurological experiments. In Chapter 6, a new auto-calibrating parallel imaging method called iterative GROG was pre- sented for the reconstruction of non-Cartesian data. A wide range of different non-Cartesian schemes have been proposed for data acquisition in MRI, that present various advantages over conventional Cartesian sampling such as faster acquisitions, improved dynamic imaging and in- trinsic motion correction. However, one drawback of non-Cartesian data is the more complicated reconstruction, which is ever more problematic for non-Cartesian parallel imaging techniques. Iterative GROG uses Calibrationless Parallel Imaging by Structured Low-Rank Matrix Completion (CPI) for data reconstruction. Since CPI requires points on a Cartesian grid, it cannot be used to directly reconstruct non-Cartesian data. Instead, Grappa Operator Gridding (GROG) is employed in a first step to move the non-Cartesian points to the nearest Cartesian grid locations. However, GROG requires a fully sampled center region of k-space for calibration. Combining both methods in an iterative scheme, accurate GROG weights can be obtained even from highly undersampled non-Cartesian data. Subsequently, CPI can be used to reconstruct either full k- space or a calibration area of arbitrary size, which can then be employed for data reconstruction with conventional parallel imaging methods. In Chapter 7, a new 2D sampling scheme was introduced consisting of multiple oscillating effi- cient trajectories (MOET), that is optimized for Compressed Sensing (CS) reconstructions. For successful CS reconstruction of a particular data set, some requirements have to be met. First, ev- ery data sample has to carry information about the whole object, which is automatically fulfilled for the Fourier sampling employed in MRI. Additionally, the image to be reconstructed has to be sparse in an arbitrary domain, which is true for a number of different applications. Last, data sam- pling has to be performed in an incoherent fashion. For 2D imaging, this important requirement of CS is difficult to achieve with conventional Cartesian and non-Cartesian sampling schemes. Ra- dial sampling is often used for CS reconstructions of dynamic data despite the streaking present in undersampled images. To obtain incoherent aliasing artifacts in undersampled images while at the same time preserving the advantages of radial sampling for dynamic imaging, MOET com- bines radial spokes with oscillating gradients of varying amplitude and alternating orientation orthogonal to the readout direction. The advantage of MOET over radial sampling in CS re- constructions was demonstrated in simulations and in in vivo cardiac imaging. MOET provides superior results especially when used in CS reconstructions with a sparsity constraint directly in image space. Here, accurate results could be obtained even from few MOET projections, while the coherent streaking artifacts present in the case of radial sampling prevent image recovery even for smaller acceleration factors. For CS reconstructions of dynamic data with sparsity constraint in xf-space, the advantage of MOET is smaller since the temporal reordering is responsible for an important part of incoherency. However, as was shown in simulations of a moving phantom and in the reconstruction of ungated cardiac data, the additional spatial incoherency provided by MOET still leads to improved results with higher accuracy and may allow reconstructions with higher acceleration factors. N2 - Die Magnetresonanztomographie (MRT) ist ein wichtiges nicht-invasives medizinisches Bildge- bungsverfahren, das im klinischen Alltag zur Entdeckung und Diagnose einer Vielzahl von Krank- heiten verwendet wird. Im Gegensatz zu anderen Methoden wie Röntgen und Computertomo- graphie kommt die MRT ohne den Einsatz ionisierender Strahlung aus, was selbst häufige An- wendungen ohne gesundheitliche Risiken erlaubt. Einer der größten Nachteile der MRT sind lange Messzeiten, die in Kombination mit der teuren Technik hohe Untersuchungskosten bedin- gen. Obwohl in der Vergangenheit durch die Entwicklung von sowohl verbesserter Hardware als auch neuen Rekonstruktionsverfahren bereits bedeutende Fortschritte in Bezug auf die Akquisi- tionsdauer erzielt werden konnten, ist eine weitere Beschleunigung nach wie vor ein wichtiges Forschungsgebiet im Bereich der MRT. Ziel dieser Arbeit war daher die Entwicklung neuer An- sätze zur Steigerung der Effizienz von MRT Experimenten. In Kapitel 4 wurde eine kombinierte Akquisitions- und Rekonstruktionsstrategie für radiale Turbo Spin-Echo (TSE) Experimente vorgestellt. Im klinischen Alltag sind kartesische TSE Sequenzen zur Untersuchung diverser Krankheitsbilder weit verbreitet, da sie ein hohes SNR aufweisen und die Aufnahme der klinisch wichtigen Bilder mit Protonendichte- und T2-Kontrast erlauben. Im Gegensatz zu kartesischem Abtasten, wo aus einem Datensatz lediglich ein Bild mit bes- timmtem Kontrast erzeugt wird, sind radiale TSE Akquisitionen hocheffizient, da hier aus einem Datensatz mehrere Bilder mit verschiedenem Kontrast gewonnen werden können. In beiden Fällen wird in konventionellen Rekonstruktionsmethoden jedes Bild eines definierten Kontrasts durch das Zusammensetzen eines vollständig abgetasteten k-Raums mit Daten von verschiedenen Echozeiten erzeugt. Im radialen Fall geschieht dies durch die sogenannte "k-space weighted im age contrast" (KWIC) Rekonstruktion. Hierbei wird das Zentrum des k-Raums ausschließlich mit zum gewünschten Kontrast gehörigen Daten gefüllt, während die äußeren Bereiche des k-Raums auch Daten von anderen Echozeiten enthalten. Obwohl der Kontrast von MRT Bildern haupt- sächlich von den Daten im k-Raum Zentrum dominiert wird, führt die Kombination von Daten verschiedener Echozeiten in sowohl radialen als auch kartesischen TSE Bildern zu einem uner- wünschten Mischkontrast. Dieser Effekt wird vor allem in protonendichtegewichteten Bildern sichtbar und kann somit deren diagnostischen Wert deutlich verringern. Ein unerwünschter Mischkontrast kann verhindert werden, indem die Bandbreite des KWIC- Filters auf ein kleines zeitliches Fenster um die angestrebte Echozeit herum eingeschränkt wird. Um eine freie Wahl der Echozuglänge und hohe Flexibilität in der Bildrekonstruktion zu er- möglichen, wurde für die radiale TSE Akquisition ein angepasstes Abtastschema unter Verwen- dung des goldenen Winkels vorgestellt. Da bei einem KWIC-Filter mit reduzierter Bandbre- ite für jedes Bild weniger Daten zur Verfügung stehen als für einen voll abgetasteten k-Raum benötigt, weisen rekonstruierte Bildern Einfaltungsartefakte auf. Diese werden in einem zweiten Schritt durch die Anwendung paralleler Bildgebung beseitigt. In den gezeigten Beispielen wurde dazu der CG-SENSE Algorithmus verwendet, da er stabile Konvergenz aufweist und für die Rekonstruktion von Daten mit irregulären Abtastschema angewandt werden kann. Anschließend werden bestehende Korrelationen der Bilderserie zur Reduktion verbleibender Artefakte und zu einer Verbesserung des SNR ausgenutzt. Wie mittels Simulationen gezeigt und für neurologische Daten bestätigt, weisen radiale TSE Bilder, die mit dieser Methode rekonstruiert wurden, keinen sichtbaren Mischkontrast mehr auf. Die erreichte Bildqualität ist hierbar vergleichbar mit kon- ventionellen Rekonstruktionsmethoden. Da die vorgestellte Rekonstruktion einfach auf heutigen Scannern implementiert werden kann und lediglich niedrige Rechenkapazitäten benötigt, könnte sie einen wichtigen Beitrag für den klinischen Durchbruch radialer TSE Akquisitionen darstellen. In Kapitel 5 wurde eine selbstkalibrierende Methode zur Korrektur von aus Multi Spin-Echo (MSE) Bildern gewonnenen T2 Karten vorgestellt. In der klinischen Anwendung spielt die Quan- tifizierung von T2 unter anderem bei der Diagnose von Krankheiten sowie bei der Klassifizierung von Gewebe eine wichtige Rolle. Eine MSE Sequenz verwendet mehrere RF-Pulse, um ein einzelnes Spin-Echo wiederholt zu refokussieren. Idealerweise betragen die Flipwinkel der Re- fokussierungspulse hierbei exakt 180○, um einen exponentiellen Signalabfall zu erhalten. Auf- grund technischer Ungenauigkeiten weichen die Werte der Flipwinkel von Refokussierungspulsen jedoch grundsätzlich von 180○ ab. Niedrigere Flipwinkel führen zu stimulierten Echos, die wesentlich zu den einzelnen Echoamplituden beitragen und den Signalabfall entlang des Echozugs deutlich verlängern können. Somit weisen auch T2 Werte, die aus solchen Bilderserien berech- net werden, eine teilweise deutliche Erhöhung auf. Um exakte Werte zu erhalten, kann der MSE Signalverlauf mittels des "extended phase graph" (EPG) Algorithmus abgeschätzt und so ein Kor- rekturfaktor ermittelt werden. Hierzu müssen die Flipwinkel der Refokussierungspulse, T1 und T2 Werte sowie der zeitliche Abstand der Echos (ESP) bekannt sein. Wie in Simulationen gezeigt wurde, kann T1 für hohe Werte des Quotienten T1/T2 abgeschätzt werden, ohne an Genauigkeit der T2 Ergebnisse einzubüßen. Abschätzungen der verbleibenden benötigten Parameter können direkt aus den Daten selbst gewonnen werden. Während der Flipwinkel aus den Intensitäten der ersten beiden Echos berechnet wird, liefert ein mono-exponentieller Fit der MSE Bilderserie eine erste Näherung für T2. Die Korrektur für die T2 Werte kann anschließend aus den EPG Sig- nalverläufen berechnet werden. Durch Aktualisierung von T2 und erneuter Ausführung des EPG-Algorithmus wird die Genauigkeit der Korrektur iterativ erhöht, wobei schon eine sehr geringe Zahl von Iterationen zu Konvergenz führt. Wie in Simulationen und in Phantomexperimenten für verschiedenste T2-Werte gezeigt, weisen korrigierte T2 Werte eine hohe Genauigkeit auf. Dies gilt auch für niedrigere nominelle Flipwinkel als 180○ und ist somit von speziellem Interesse bei höheren Feldstärken B0, wo Grenzwerte der spezifischen Absorptionsrate die Einstrahlung einer Vielzahl von RF-Pulsen hoher Amplitude verbietet. In Kapitel 6 wurde iteratives GROG, eine neue selbstkalibrierende iterative parallele Bildge- bungsmethode für die Rekonstruktion von nichtkartesischen Daten vorgestellt. Es sind eine Vielzahl nichtkartesischer Trajektorien für MRT Messungen bekannt, die zahlreiche Vorteile gegenüber kartesischer Bildgebung bieten. Dazu gehören unter anderem eine schnellere Akquisi- tion, verbesserte dynamische Bildgebung sowie die Möglichkeit zur intrinischen Bewegungskor- rektur. Ein Nachteil nichtkartesischer Daten jedoch ist eine aufwendigere Rekonstruktion, sowohl bei voll abgetasteten Datensätzen als insbesondere auch in der parallelen Bildgebung. Itera- tives GROG verwendet Calibrationless Parallel Imaging by Structured Low-Rank Matrix Com- pletion (CPI) zur Rekonstruktion fehlender Daten. Diese Methode benötigt Daten auf karte- sischen Gitterpunkten und kann nicht direkt für nichtkartesische Experimente angewandt wer- den. Stattdessen werden die nichtkartesischen Daten zunächst mittels Grappa Operator Gridding (GROG) in einem ersten Schritt auf ein kartesisches Gitter verschoben. GROG basiert auf paral- leler Bildgebung und benötigt einen voll abgetasteten Teil des k-Raums zur Kalibrierung. Erste Kalibrationsdaten können gewonnen werden, indem die nichtkartesischen Punkte ohne Änderung auf die nächsten kartesischen Gitterpunkte verschoben werden und eine CPI-Rekonstruktion eines zentralen k-Raum Bereichs durchgeführt wird. Anschließend wird GROG angewandt um exakte Werte der kartesischen Gitterpunkte zu erhalten und der Prozess wird iteriert. Nach Kon- vergenz können entweder Kalibrationsdaten gewünschter Größe für eine konventionelle parallele Bildgebungsmethode erzeugt oder artefaktfreie Bilder mit CPI rekonstruiert werden. In Kapitel 7 wurde ein neues Abtastungsschema für die 2D Bildgebung vorgestellt, das aus Multiplen Oszillierenden Effizienten Trajektorien (MOET) besteht und optimierte Compressed Sensing (CS) Rekonstruktionen ermöglicht. Für eine erfolgreiche Anwendung von Compressed Sensing müssen einige Voraussetzungen erfüllt sein. Erstens muss jeder Datenpunkt Informa- tionen über das ganze Objekt enthalten, was bei der MRT aufgrund der Datenakquisition im Fourier-Raum automatisch erfüllt ist. Weiterhin muss das gemessene Objekt in einer beliebigen Basis sparse sein. Dies ist für viele verschiedene Anwendungen in der MRT der Fall. Drittens muss für CS Rekonstruktionen die Datenakquisition im k-Raum einem inkohärenten Muster fol- gen. Diese wichtige Voraussetzung ist in der zweidimensionalen Bildgebung mit konventionellen kartesischen und nicht-kartesischen Abtastschemata nur schwer zu erreichen. Deshalb wird für CS Rekonstruktionen häufig eine radiale Trajektorie eingesetzt, trotz der kohärenten streaking- Artefakte in unterabgetasteten Bildern. MOET verwendet daher eine Kombination von radialen Projektionen zusammen mit oszillierenden Gradienten auf der zur Ausleserichtung orthogonalen Achse. So erhält man inkohärente Aliasing-Artefakte und bewahrt gleichzeitig die Vorteile der radialen Bildgebung für die dynamische MRT. Die Überlegenheit von MOET gegenüber radi- aler Bildgebung für CS Rekonstruktionen konnte in Simulationen sowie in der Herzbildgebung aufgezeigt werden. Dies gilt insbesondere für CS Rekonstruktionen direkt im Bildraum, wo MOET gute Resultate liefert während die kohärenten Artefakte bei radialer Bildgebung eine genaue Bildwiederherstellung verhindert. Bei Rekonstruktionen dynamischer Daten, wo Sparsität im xf-Raum ausgenutzt wird, ist der Vorteil von MOET weniger ausgeprägt, da hier bere- its die zeitliche Anordnung der Projektionen einen wesentlichen Beitrag zur Charakteristik der Aliasingartefakte liefert. Wie in Simulationen und für die in vivo Herzbildgebung gezeigt werden konnte, erlaubt die zusätzliche räumliche Inkohärenz von MOET jedoch auch in diesem Fall eine höhere Genauigkeit sowie Rekonstruktionen von Daten höherer Beschleunigung. KW - Kernspintomografie KW - Parallele Bildgebung KW - nichtkarthesische Bildgebung KW - Turbo Spin-Echos KW - Compressed Sensing KW - Parallel Imaging KW - non-Cartesian Imaging KW - Compressed Sensing KW - MRI KW - MRT KW - NMR-Tomographie Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-108165 ER - TY - THES A1 - Joseph, Arun Antony T1 - Real-time MRI of Moving Spins Using Undersampled Radial FLASH T1 - Echtzeit MRI von bewegten Spins mithilfe der unterabgetasteten radialen FLASH sequenz N2 - Nuclear spins in motion is an intrinsic component of any dynamic process when studied using magnetic resonance imaging (MRI). Moving spins define many functional characteristics of the human body such as diffusion, perfusion and blood flow. Quantitative MRI of moving spins can provide valuable information about the human physiology or of a technical system. In particular, phase-contrast MRI, which is based on two images with and without a flow-encoding gradient, has emerged as an important diagnostic tool in medicine to quantify human blood flow. Unfortunately, however, its clinical usage is hampered by long acquisition times which only provide mean data averaged across multiple cardiac cycles and therefore preclude Monitoring the immediate physiological responses to stress or exercise. These limitations are expected to be overcome by real-time imaging which constitutes a primary aim of this thesis. Short image acquisition times, as the core for real-time phase-contrast MRI, can be mainly realized through undersampling of the acquired data. Therefore the development focused on related technical aspects such as pulse sequence design, k-space encoding schemes and image reconstruction. A radial encoding scheme was experimentally found to be robust to motion and less sensitive to undersampling than Cartesian encoding. Radial encoding was combined with a FLASH acquisition technique for building an efficient real-time phase-contrast MRI sequence. The sequence was further optimized through overlapping of gradients to achieve the shortest possible echo time. Regularized nonlinear inverse reconstruction (NLINV), a technique which jointly estimates the image content and its corresponding coil sensitivities, was used for image reconstruction. NLINV was adapted specifically for phase-contrast MRI to produce both Magnitude images and phase-contrast maps. Real-time phase-contrast MRI therefore combined two highly undersampled (up to a factor of 30) radial gradient-echo acquisitions with and without a flow-encoding gradient with modified NLINV reconstructions. The developed method achieved real-time phase-contrast MRI at both high spatial (1.3 mm) and temporal resolution (40 ms). Applications to healthy human subjects as well as preliminary studies of patients demonstrated real-time phase-contrast MRI to offer improved patient compliance (e.g., free breathing) and immediate access to physiological variations of flow parameters (e.g., response to enhanced intrathoracic pressure). In most cases, quantitative blood flow was measured in the ascending aorta as an important blood vessel of the cardiovascular circulation system commonly studied in the clinic. The performance of real-time phase-contrast MRI was validated in comparison to standard Cine phase-contrast MRI using studies of flow phantoms as well as under in vivo conditions. The evaluations confirmed good agreement for comparable results. As a further extension to real-time phase-contrast MRI, this thesis implemented and explored a dual-echo phase-contrast MRI method which employs two sequential gradient echoes with and without flow encoding. The introduction of a flow-encoding gradient in between the two echoes aids in the further reduction of acquisition time. Although this technique was efficient under in vitro conditions, in vivo studies showed the influence of additional motion-induced Phase contributions. Due to these additional temporal phase information, the approach showed Little promise for quantitative flow MRI. As a further method three-dimensional real-time phase-contrast MRI was developed in this thesis to visualize and quantify multi-directional flow at about twice the measuring time of the standard real-time MRI method, i.e. at about 100 ms temporal resolution. This was achieved through velocity mapping along all three physical gradient directions. Although the method is still too slow to adequately cover cardiovascular blood flow, the preliminary results were found to be promising for future applications in tissues and organ systems outside the heart. Finally, future developments are expected to benefit from the adaptation of model-based reconstruction techniques to real-time phase-contrast MRI. N2 - Die Bewegung der Kernspins ist eine wesentliche Eigenschaft von dynamischen Vorgängen, die mit Hilfe der Magnetresonanztomographie (MRT) untersucht werden. Bewegte oder fließende Spins charakterisieren viele Funktionen des menschlichen Körpers, wie z.B. die Gewebeperfusion und den Blutfluss in den Gefäßen. Die quantitative MRT von bewegten Spins kann daher wertvolle Informationen über die menschliche Physiologie oder auch über ein technisches System geben. Insbesondere die Phasenkontrast-MRT, die auf der Aufnahme von zwei Bildern mit und ohne flusskodierenden Gradienten basiert, hat sich als ein wichtiges diagnostisches Werkzeug in der Medizin entwickelt, um den Blutfluss funktionell zu quantifizieren. Die klinische Nutzung ist jedoch durch die langen Messzeiten eingeschränkt, da die Daten über mehrere Herzzyklen gemittelt werden müssen und damit die Untersuchung unmittelbarer physiologischer Reaktionen auf Stress und/oder Muskelbelastung ausgeschlossen ist. Ein primäres Ziel dieser Arbeit war es, diese Einschränkungen durch die Entwicklung einer MRT-Flussmessung in Echtzeit zu überwinden. Entscheidende Grundlage jeder Echtzeit-MRT sind kurze Aufnahmezeiten, die vor allem durch eine Reduktion der aufgenommenen Daten (Unterabtastung) realisiert werden. Daher konzentrierte sich die hier vorgestellte Entwicklung auf die damit verbundenen technischen Aspekte wie die MRT-Sequenz zur Datenaufnahme, das räumliche Kodierungsschema, und die Bildrekonstruktion. Experimentell erwies sich ein radiales Kodierungsschema als robust gegenüber Bewegungen und relativ unempfindlich gegenüber milder Unterabtastung. Dieses Kodierungsschema wurde mit der FLASH Aufnahmetechnik für eine effiziente Phasenkontrast-Sequenz in Echtzeit kombiniert. Zusätzlich wurde die Sequenz durch Überlappung von Gradienten hinsichtlich einer kurzen Echozeit optimiert. Für die Bildrekonstruktion wurde die regularisierte nichtlineare inverse Rekonstruktion (NLINV) verwendet, bei der die Bildinformation und die entsprechenden pulensensitivitäten gleichzeitig geschätzt werden. NLINV wurde speziell für die Phasenkontrast-MRT angepasst, um sowohl Betragsbilder als auch robuste Phasenkontrast-Karten mit hoher raumzeitlicher Genauigkeit zu berechnen. Das erarbeitete Verfahren der Phasenkontrast-MRT in Echtzeit kombiniert daher zwei stark unterabgetastete (bis zu einem Faktor von 30) und unterschiedlich flusskodierte, radiale Gradientenecho-Aufnahmen mit einer modifizierten NLINV Rekonstruktion. Mit dieser Methode wurde sowohl eine gute räumliche Auflösung (1.3 mm), als auch eine hohe zeitliche Auflösung (40 ms) erreicht. Bei Anwendungen an gesunden Probanden sowie vorläufigen Untersuchungen von Patienten konnte nachgewiesen werden, dass die Phasenkontrast-MRT in Echtzeit einen verbesserten Komfort für die Patienten (z.B. freie Atmung) und unmittelbaren Zugang zu physiologischen Veränderungen der Flussparameter bietet (z.B. Reaktion auf erhöhten Druck im Brustraum). In den meisten Fällen wurden quantitative Blutflussmessungen in der aufsteigenden Aorta, einem klinisch wichtigen Gefäß des Herz-Kreislauf-Systems, vorgenommen. Die Messungen mit der Phasenkontrast-MRT in Echtzeit wurden mit der EKG-getriggerten Cine Phasenkontrast-MRT (klinischer Standard) an einem Flussphantom und unter in vivo Bedingungen verglichen. Die Ergebnisse zeigten unter vergleichbaren Bedingungen gute Übereinstimmung. Im Rahmen dieser Arbeit wurde zusätzlich eine Doppelecho-Variante der Phasenkontrast-MRT in Echtzeit implementiert. Das Einfügen eines flusskodierenden Gradienten zwischen den beiden Echos führte zu einer weiteren Reduzierung der Messzeit. Obwohl sich diese Technik unter in vitro Bedingungen als tauglich erwies, zeigten sich bei in vivo Studien störende Einflüsse durch bewegungsinduzierte Phasenbeiträge, die wenig Erfolg für quantitative Flussmessungen versprechen. Als weitere Methode wurde in dieser Arbeit eine dreifach kodierte Sequenz zur Phasenkontrast-MRT entwickelt, um multidirektionalen Fluss zu untersuchen. Die Geschwindigkeitskodierung entlang aller drei physikalischen Gradientenrichtungen führte zu einer verlängerten Messzeit (zeitliche Auflösung � 100 ms) gegenüber der Echtzeit-Flussmessung in nur einer Richtung. Obwohl das Verfahren noch zu langsam ist, um den kardiovaskulären Blutfluss adäquat zu beschreiben, waren vorläufige Ergebnisse in Körperregionen außerhalb des Herzens für zukünftige klinische Anwendungen sehr vielversprechend. Es ist zu erwarten, dass entsprechende Weiterentwicklungen von modellbasierten ekonstruktionsverfahren profitieren werden. KW - Kernspintomografie KW - Real-time MRI Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-94000 ER - TY - THES A1 - Gold, Lukas T1 - Methods for the state estimation of lithium-ion batteries T1 - Methoden zur Zustandserkennung von Lithium-Ionen-Batterien N2 - This work introduced the reader to all relevant fields to tap into an ultrasound-based state of charge estimation and provides a blueprint for the procedure to achieve and test the fundamentals of such an approach. It spanned from an in-depth electrochemical characterization of the studied battery cells over establishing the measurement technique, digital processing of ultrasonic transmission signals, and characterization of the SoC dependent property changes of those signals to a proof of concept of an ultrasound-based state of charge estimation. The State of the art & theoretical background chapter focused on the battery section on the mechanical property changes of lithium-ion batteries during operation. The components and the processes involved to manufacture a battery cell were described to establish the fundamentals for later interrogation. A comprehensive summary of methods for state estimation was given and an emphasis was laid on mechanical methods, including a critical review of the most recent research on ultrasound-based state estimation. Afterward, the fundamentals of ultrasonic non-destructive evaluation were introduced, starting with the sound propagation modes in isotropic boundary-free media, followed by the introduction of boundaries and non-isotropic structure to finally approach the class of fluid-saturated porous media, which batteries can be counted to. As the processing of the ultrasonic signals transmitted through lithium-ion battery cells with the aim of feature extraction was one of the main goals of this work, the fundamentals of digital signal processing and methods for the time of flight estimation were reviewed and compared in a separate section. All available information on the interrogated battery cell and the instrumentation was collected in the Experimental methods & instrumentation chapter, including a detailed step-by-step manual of the process developed in this work to create and attach a sensor stack for ultrasonic interrogation based on low-cost off-the-shelf piezo elements. The Results & discussion chapter opened with an in-depth electrochemical and post-mortem interrogation to reverse engineer the battery cell design and its internal structure. The combination of inductively coupled plasma-optical emission spectrometry and incremental capacity analysis applied to three-electrode lab cells, constructed from the studied battery cell’s materials, allowed to identify the SoC ranges in which phase transitions and staging occur and thereby directly links changes in the ultrasonic signal properties with the state of the active materials, which makes this work stand out among other studies on ultrasound-based state estimation. Additional dilatometer experiments were able to prove that the measured effect in ultrasonic time of flight cannot originate from the thickness increase of the battery cells alone, as this thickness increase is smaller and in opposite direction to the change in time of flight. Therefore, changes in elastic modulus and density have to be responsible for the observed effect. The construction of the sensor stack from off-the-shelf piezo elements, its electromagnetic shielding, and attachment to both sides of the battery cells was treated in a subsequent section. Experiments verified the necessity of shielding and its negligible influence on the ultrasonic signals. A hypothesis describing the metal layer in the pouch foil to be the transport medium of an electrical coupling/distortion between sending and receiving sensor was formulated and tested. Impedance spectroscopy was shown to be a useful tool to characterize the resonant behavior of piezo elements and ensure the mechanical coupling of such to the surface of the battery cells. The excitation of the piezo elements by a raised cosine (RCn) waveform with varied center frequency in the range of 50 kHz to 250 kHz was studied in the frequency domain and the influence of the resonant behavior, as identified prior by impedance spectroscopy, on waveform and frequency content was evaluated to be uncritical. Therefore, the forced oscillation produced by this excitation was assumed to be mechanically coupled as ultrasonic waves into the battery cells. The ultrasonic waves transmitted through the battery cell were recorded by piezo elements on the opposing side. A first inspection of the raw, unprocessed signals identified the transmission of two main wave packages and allowed the identification of two major trends: the time of flight of ultrasonic wave packages decreases with the center frequency of the RCn waveform, and with state of charge. These trends were to be assessed further in the subsequent sections. Therefore, methods for the extraction of features (properties) from the ultrasonic signals were established, compared, and tested in a dedicated section. Several simple and advanced thresholding methods were compared with envelope-based and cross-correlation methods to estimate the time of flight (ToF). It was demonstrated that the envelope-based method yields the most robust estimate for the first and second wave package. This finding is in accordance with the literature stating that an envelope-based method is best suited for dispersive, absorptive media [204], to which lithium-ion batteries are counted. Respective trends were already suggested by the heatmap plots of the raw signals vs. RCn frequency and SoC. To enable such a robust estimate, an FIR filter had to be designed to preprocess the transmitted signals and thereby attenuate frequency components that verifiably lead to a distorted shape of the envelope. With a robust ToF estimation method selected, the characterization of the signal properties ToF and transmitted energy content (EC) was performed in-depth. A study of cycle-to-cycle variations unveiled that the signal properties are affected by a long rest period and the associated relaxation of the multi-particle system “battery cell” to equilibrium. In detail, during cycling, the signal properties don’t reach the same value at a given SoC in two subsequent cycles if the first of the two cycles follows a long rest period. In accordance with the literature, a break-in period, making up for more than ten cycles post-formation, was observed. During this break-in period, the mechanical properties of the system are said to change until a steady state is reached [25]. Experiments at different C-rate showed that ultrasonic signal properties can sense the non-equilibrium state of a battery cell, characterized by an increasing area between charge and discharge curve of the respective signal property vs. SoC plot. This non-equilibrium state relaxes in the rest period following the discharge after the cut-off voltage is reached. The relaxation in the rest period following the charge is much smaller and shows little C-rate dependency as the state is prepared by constant voltage charging at the end of charge voltage. For a purely statistical SoC estimation approach, as employed in this work, where only instantaneous measurements are taken into account and the historic course of the measurement is not utilized as a source of information, the presence of hysteresis and relaxation leads to a reduced estimation accuracy. Future research should address this issue or even utilize the relaxation to improve the estimation accuracy, by incorporating historic information, e.g., by using the derivative of a signal property as an additional feature. The signal properties were then tested for their correlation with SoC as a function of RCn frequency. This allowed identifying trends in the behavior of the signal properties as a function of RCn frequency and C-rate in a condensed fashion and thereby enabled to predict the frequency range, about 50 kHz to 125 kHz, in which the course of the signal properties is best suited for SoC estimation. The final section provided a proof of concept of the ultrasound-based SoC estimation, by applying a support vector regression (SVR) to before thoroughly studied ultrasonic signal properties, as well as current and battery cell voltage. The included case study was split into different parts that assessed the ability of an SVR to estimate the SoC in a variety of scenarios. Seven battery cells, prepared with sensor stacks attached to both faces, were used to generate 14 datasets. First, a comparison of self-tests, where a portion of a dataset is used for training and another for testing, and cross-tests, which use the dataset of one cell for training and the dataset of another for testing, was performed. A root mean square error (RMSE) of 3.9% to 4.8% SoC and 3.6% to 10.0% SoC was achieved, respectively. In general, it was observed that the SVR is prone to overestimation at low SoCs and underestimation at high SoCs, which was attributed to the pronounced hysteresis and relaxation of the ultrasonic signal properties in this SoC ranges. The fact that higher accuracy is achieved, if the exact cell is known to the model, indicates that a variation between cells exists. This variation between cells can originate from differences in mechanical properties as a result of production variations or from differences in manual sensor placement, mechanical coupling, or resonant behavior of the ultrasonic sensors. To mitigate the effect of the cell-to-cell variations, a test was performed, where the datasets of six out of the seven cells were combined as training data, and the dataset of the seventh cell was used for testing. This reduced the spread of the RMSE from (3.6 - 10.0)% SoC to (5.9 – 8.5)% SoC, respectively, once again stating that a databased approach for state estimation becomes more reliable with a large data basis. Utilizing self-tests on seven datasets, the effect of additional features on the state estimation result was tested. The involvement of an additional feature did not necessarily improve the estimation accuracy, but it was shown that a combination of ultrasonic and electrical features is superior to the training with these features alone. To test the ability of the model to estimate the SoC in unknown cycling conditions, a test was performed where the C-rate of the test dataset was not included in the training data. The result suggests that for practical applications it might be sufficient to perform training with the boundary of the use cases in a controlled laboratory environment to handle the estimation in a broad spectrum of use cases. In comparison with literature, this study stands out by utilizing and modifying off-the-shelf piezo elements to equip state-of-the-art lithium-ion battery cells with ultrasonic sensors, employing a range of center frequencies for the waveform, transmitted through the battery cell, instead of a fixed frequency and by allowing the SVR to choose the frequency that yields the best result. The characterization of the ultrasonic signal properties as a function of RCn frequency and SoC and the assignment of characteristic changes in the signal properties to electrochemical processes, such as phase transitions and staging, makes this work unique. By studying a range of use cases, it was demonstrated that an improved SoC estimation accuracy can be achieved with the aid of ultrasonic measurements – thanks to the correlation of the mechanical properties of the battery cells with the SoC. N2 - Diese Arbeit bot dem Leser eine Einführung in alle Bereiche an, die relevant sind um eine ultraschallbasierte Ladungszustandsbestimmung (Ladezustand – engl.: state of charge, SoC) umzusetzen, und zeigt einen Weg auf, wie ein solcher Ansatz in seinen Grundlagen geprüft und umgesetzt werden kann. Hierzu wurde ein Bogen gespannt von einer eingehenden elektrochemischen Charakterisierung der untersuchten Batteriezellen über die Etablierung der Messtechnik, die digitale Verarbeitung von Ultraschalltransmissionssignalen und die Charakterisierung der Ladezustands-abhängigen Eigenschaftsänderungen dieser Signale bis hin zu einem Proof-of-Concept für eine ultraschallbasierte Ladezustandsbestimmung. Das Kapitel „State of the art & theoretical background“ konzentrierte sich in einem Abschnitt über Batterien auf die Veränderungen der physikalischen Eigenschaften von Lithium-Ionen-Batterien während des Betriebs und der Alterung. Um die Grundlage für die spätere Untersuchung zu schaffen, wurden die Komponenten und die Prozesse zur Herstellung einer Batteriezelle beschrieben. Anschließend wurde ein umfassender Überblick über die Methoden zur Zustandsschätzung gegeben, wobei der Schwerpunkt auf den mechanischen Methoden lag, einschließlich einer kritischen Zusammenstellung der neuesten Forschungsergebnisse zur ultraschallbasierten Zustandsbestimmung. Danach wurden die Grundlagen der zerstörungsfreien Bewertung mit Ultraschall vorgestellt, beginnend mit den Schallausbreitungsmoden in isotropen, unbegrenzten Medien, gefolgt von der Einführung von Grenzen und nicht-isotropen Strukturen, um sich schließlich der Klasse der flüssigkeitsgesättigten porösen Medien zu nähern, zu denen Batterien gezählt werden können. Da die Verarbeitung der durch die Lithium-Ionen-Batteriezellen übertragenen Ultraschallsignale mit dem Ziel der Merkmalsextraktion eines der Hauptziele dieser Arbeit war, wurden die Grundlagen der digitalen Signalverarbeitung und Methoden zur Laufzeitschätzung in einem eigenen Abschnitt behandelt und verglichen. Alle verfügbaren Informationen über die abgefragte Batteriezelle und die verwendeten Messgeräte wurden im Kapitel „Experimental methods & instrumentation“ zusammengestellt, einschließlich einer detaillierten Schritt-für-Schritt-Anleitung des in dieser Arbeit entwickelten Verfahrens zur Erstellung und Anbringung einer Sensoranordnung für die Ultraschallprüfung auf der Grundlage kostengünstiger, handelsüblicher Piezoelemente. Das Kapitel „Results & discussion“ begann mit einer eingehenden elektrochemischen und Post-Mortem-Untersuchung, um das Design der Batteriezelle und ihre interne Struktur zu untersuchen. Durch die Kombination von induktiv gekoppelter Plasma-optischer Emissionsspektrometrie und inkrementeller Kapazitätsanalyse an Drei-Elektroden-Laborzellen, die aus den Materialien der untersuchten Batteriezelle konstruiert wurden, konnten die SoC-Bereiche identifiziert werden, in denen Phasenübergänge auftreten, wodurch Änderungen der Ultraschallsignaleigenschaften direkt mit dem Zustand der Aktivmaterialien verknüpft werden, was diese Arbeit unter anderen Studien zur ultraschallbasierten Zustandsschätzung hervorhebt. Durch zusätzliche Dilatometer-experimente konnte nachgewiesen werden, dass der gemessene Effekt in der Ultraschalllaufzeit nicht allein von der Volumenänderung der Batteriezellen herrühren kann, da diese Volumenänderung kleiner ist und in die Gegenrichtung zur Änderung der Laufzeit verläuft. Entsprechend müssen Änderungen in E-Modul und Dichte der Aktivmaterialien für den beobachteten Effekt verantwortlich sein. Der Aufbau der Sensoranordnung aus handelsüblichen Piezoelementen, seine elektromagnetische Abschirmung und die Befestigung an beiden Seiten der Batteriezellen wurden in einem späteren Abschnitt behandelt. Experimente bestätigten die Notwendigkeit dieser Abschirmung und ihren vernachlässigbaren Einfluss auf die Ultraschallsignale. Es wurde eine Hypothese formuliert, die die Metallschicht in der Pouch-Folie als Transportmedium einer elektrischen Kopplung/Übersprechens zwischen Sende- und Empfangssensor beschreibt. Die Impedanzspektroskopie erwies sich als nützliches Werkzeug zur Charakterisierung des Resonanzverhaltens der Piezoelemente und zur Sicherstellung der mechanischen Kopplung dieser Elemente mit der Oberfläche der Batteriezellen. Die Anregung der Piezoelemente durch eine Raised-Cosine-Wellenform (RCn) mit variierter Mittenfrequenz im Bereich von 50 kHz bis 250 kHz wurde mittels Fourier-Transformation im Frequenzraum untersucht. Der Einfluss des Resonanzverhaltens, welches zuvor durch die Impedanzspektroskopie ermittelt wurde, auf die Wellenform und den Frequenzinhalt wurde als unkritisch bewertet. Daher wurde angenommen, dass die durch die RCn Anregung erzeugte erzwungene Schwingung mechanisch als Ultraschallwellen in die Batteriezellen eingekoppelt wird. Die durch die Batteriezelle transmittierten Ultraschallwellen wurden von Piezoelementen auf der gegenüberliegenden Seite aufgezeichnet. Eine erste Prüfung der rohen, unverarbeiteten Signale ergab die Übertragung von zwei Hauptwellenpaketen und ermöglichte die Identifizierung von zwei Haupttrends: Die Laufzeit der Ultraschallwellenpakete nimmt mit der Mittenfrequenz, der RCn-Wellenform und mit dem Ladezustand ab. Diese Trends sollten in den folgenden Abschnitten weiter bewertet werden. Daher wurden in einem eigenen Abschnitt Methoden zur Extraktion von Merkmalen (Eigenschaften) aus den Ultraschallsignalen implementiert, verglichen und getestet. Mehrere einfache und fortgeschrittene Schwellenwertverfahren wurden mit hüllkurvenbasierten und Kreuzkorrelationsverfahren zur Schätzung der Laufzeit (engl.: „time of flight“, ToF) verglichen. Es wurde gezeigt, dass die hüllkurvenbasierte Methode die stabilste Schätzung für das erste und zweite Wellenpaket liefert. Dieses Ergebnis steht im Einklang mit der Literatur, die beschreibt, dass eine hüllkurvenbasierte Methode am besten für dispersive, absorbierende Medien [234], wie z. B. Lithium-Ionen-Batterien, geeignet ist, was bereits durch die Heatmap-Diagramme der Rohsignale aufgetragen gegen RCn-Frequenz und SoC suggeriert wurde. Um eine solche robuste Laufzeit-Schätzung zu ermöglichen, musste ein FIR-Filter implementiert werden, der die übertragenen Signale vorverarbeitet und dabei Frequenzkomponenten abschwächt, die nachweislich zu einer verzerrten Form der Hüllkurve führen. Nach der Auswahl einer robusten Methode zur ToF-Schätzung die Signaleigenschaften ToF und übertragener Energiegehalt (engl.: energy content, EC) eingehend charakterisiert. Eine Untersuchung der Zyklus-zu-Zyklus-Schwankungen ergab, dass die Signaleigenschaften durch eine lange Ruhephase und die damit verbundene Relaxation des Vielteilchensystems "Batteriezelle" bis zur Erreichung des Gleichgewichtzustands beeinflusst werden. Die Signaleigenschaften erreichten während des Zyklus nicht den gleichen Wert bei einem bestimmten SoC in zwei aufeinanderfolgenden Zyklen, wenn der erste der beiden Zyklen auf eine lange Ruhephase folgte. In Übereinstimmung mit der Literatur wurde eine Einlaufphase (engl.: „break-in period“) beobachtet, die mehr als zehn Zyklen nach der Formierung umfasst. Während dieser Einlaufphase ändern sich die mechanischen Eigenschaften des Systems, bis ein stabiler Zustand erreicht ist [25]. Experimente bei unterschiedlichen C-Raten zeigten, dass die Ultraschallsignaleigenschaften sensitiv für den Nicht-Gleichgewichtszustand einer Batteriezelle sind, der durch eine zunehmende Fläche zwischen der Lade- und Entladekurve der jeweiligen Signaleigenschaft in der Auftragung über SoC gekennzeichnet ist. Dieser Nicht-Gleichgewichtszustand entspannt sich in der Ruhephase nach der Entladung, nachdem die Abschaltspannung erreicht ist. Die Relaxation in der Ruhephase nach dem Laden ist wesentlich geringer und zeigt kaum eine Abhängigkeit von der C-Rate, da der Zustand durch Laden mit konstanter Spannung nach Erreichen der Ladeschlussspannung präpariert wird. Bei einem rein statistischen SoC-Bestimmungsansatz, wie er in dieser Arbeit verwendet wird, bei dem nur instantane Messwerte berücksichtigt werden und die historischen Messwerte nicht als Informationsquelle genutzt wird, führt das Vorhandensein von Hysterese und Relaxation zu einer geringeren Schätzgenauigkeit. Zukünftige Forschungsarbeiten sollten sich mit diesem Problem befassen oder sogar die Relaxation zur Verbesserung der Bestimmungsgenauigkeit nutzen, indem historische Informationen einbezogen werden, z. B. durch Verwendung der Ableitung einer Signaleigenschaft als zusätzliches Merkmal. Die Signaleigenschaften wurden dann auf ihre Korrelation mit SoC als Funktion der RCn-Frequenz getestet. Dies ermöglichte es, Trends innerhalb der Daten in verdichteter Form zu identifizieren und dadurch den Frequenzbereich (etwa 50 kHz bis 125 kHz) vorherzusagen, in dem der Verlauf der Signaleigenschaften am besten für die SoC-Bestimmung geeignet ist. Im letzten Abschnitt wurde ein Proof-of-Concept für die ultraschallbasierte SoC-Schätzung erbracht, indem eine Support-Vektor-Regression (SVR) auf die zuvor eingehend untersuchten Ultraschallsignaleigenschaften sowie auf Strom und Zellspannung der Batterie angewendet wurde. Die enthaltene Fallstudie war in verschiedene Teile aufgeteilt, die die Fähigkeit einer SVR zur Bestimmung des SoC in einer Vielzahl von Szenarien bewerteten. Sieben Batteriezellen, die mit jeweils zwei Sensoranordnungen auf gegenüberliebenden Seiten präpariert wurden, dienten zur Erzeugung von 14 Datensätzen. Zunächst wurde ein Vergleich zwischen Selbsttests, bei denen ein Teil eines Datensatzes zum Training und ein anderer zum Testen verwendet wird, und Kreuztests, bei denen der Datensatz einer Zelle zum Training und der einer anderen zum Testen verwendet wird, durchgeführt. Dabei wurde ein mittlerer Fehler von 3,9% bis 4,8% SoC bzw. 3,6% bis 10,0% SoC erreicht. Im Allgemeinen wurde festgestellt, dass die SVR bei niedrigen SoCs zu einer Überschätzung und bei hohen SoCs zu einer Unterschätzung neigt, was auf die ausgeprägte Hysterese und Relaxation der Ultraschallsignaleigenschaften in diesen SoC-Bereichen zurückgeführt wurde. Die Tatsache, dass eine höhere Genauigkeit erreicht wird, wenn die genaue Zelle dem Regressionsmodell bekannt ist, deutet darauf hin, dass eine Variation zwischen den Zellen besteht. Diese Variation zwischen den Zellen kann auf Unterschiede in den mechanischen Eigenschaften infolge von Produktionsschwankungen oder auf Unterschiede in der manuellen Sensorplatzierung, der mechanischen Kopplung oder dem Resonanzverhalten der Ultraschallsensoren zurückzuführen sein. Um die Auswirkungen der Schwankungen zwischen den Zellen auf die Schätzgenauigkeit abzuschwächen, wurde ein Test durchgeführt, bei dem die Datensätze von sechs der sieben Zellen als Trainingsdaten kombiniert wurden und der Datensatz der siebten Zelle für den Test verwendet wurde. Dadurch verringerte sich die Streuung des mittleren Fehlers von (3,6 - 10,0)% SoC auf (5,9 - 8,5)% SoC, was einmal mehr zeigt, dass ein datenbasierter Ansatz zur Zustandsbestimmung durch eine großen Datenbasis zuverlässiger wird. Anhand von Selbsttests mit sieben Datensätzen wurde die Auswirkung zusätzlicher Merkmale auf das Ergebnis der Zustandsbestimmung getestet. Die Einbeziehung eines zusätzlichen Merkmals verbesserte nicht unbedingt die Schätzgenauigkeit, aber es wurde gezeigt, dass eine Kombination von Ultraschall- und elektrischen Merkmalen dem Training mit diesen Merkmalen allein überlegen ist. Um die Fähigkeit des Modells zur Bestimmung des Ladezustands unter unbekannten Zyklusbedingungen zu testen, wurde ein Test durchgeführt, bei dem die C-Rate des Testdatensatzes nicht in den Trainingsdaten enthalten war. Das Ergebnis deutet darauf hin, dass es für praktische Anwendungen ausreichend sein könnte, das Training mit Datensätzen unter den Grenzbedingungen der Anwendungsfälle in einer kontrollierten Laborumgebung durchzuführen, um die Schätzung in einem breiten Spektrum von Anwendungsfällen zu bewältigen. Im Vergleich zur Literatur hebt sich diese Studie dadurch ab, dass handelsübliche Piezoelemente verwendet und modifiziert wurden, um moderne Lithium-Ionen-Batteriezellen mit Ultraschallsensoren auszustatten, wobei eine Reihe von Mittenfrequenzen für die durch die Batteriezelle übertragene Wellenform anstelle einer festen Frequenz verwendet wird und der SVR die Frequenz wählen kann, die das beste Ergebnis liefert. Die Charakterisierung der Ultraschallsignaleigenschaften als Funktion der RCn-Frequenz und des SoC sowie die Zuordnung charakteristischer Veränderungen der Signaleigenschaften zu elektrochemischen Prozessen wie den Phasenübergängen in den Aktivmaterialien machen diese Arbeit einzigartig. Durch die Untersuchung einer Reihe von Anwendungsfällen konnte gezeigt werden, dass mit Hilfe von Ultraschallmessungen eine verbesserte SoC-Abschätzungsgenauigkeit erreicht werden kann - dank der Korrelation der mechanischen Eigenschaften der Batteriezellen mit dem SoC. KW - Lithium-Ionen-Akkumulator KW - Ultraschallprüfung KW - Digitale Signalverarbeitung KW - Maschinelles Lernen KW - Ultraschall KW - State Estimation KW - Zustandserkennung KW - Lithium-Ionen-Batterie KW - Lithium-ion Battery KW - Support Vector Regression Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-306180 ER - TY - THES A1 - Portmann, Johannes T1 - Accelerated inversion recovery MRI of the myocardium using spiral acquisition T1 - Beschleunigte Inversion-Recovery MR-Bildgebung des Myokards mit spiralen Auslesezügen N2 - This work deals with the acceleration of cardiovascular MRI for the assessment of functional information in steady-state contrast and for viability assessment during the inversion recovery of the magnetization. Two approaches are introduced and discussed in detail. MOCO-MAP uses an exponential model to recover dynamic image data, IR-CRISPI, with its low-rank plus sparse reconstruction, is related to compressed sensing. MOCO-MAP is a successor to model-based acceleration of parametermapping (MAP) for the application in the myocardial region. To this end, it was augmented with a motion correction (MOCO) step to allow exponential fitting the signal of a still object in temporal direction. Iteratively, this introduction of prior physical knowledge together with the enforcement of consistency with the measured data can be used to reconstruct an image series from distinctly shorter sampling time than the standard exam (< 3 s opposed to about 10 s). Results show feasibility of the method as well as detectability of delayed enhancement in the myocardium, but also significant discrepancies when imaging cardiac function and artifacts caused already by minor inaccuracy of the motion correction. IR-CRISPI was developed from CRISPI, which is a real-time protocol specifically designed for functional evaluation of image data in steady-state contrast. With a reconstruction based on the separate calculation of low-rank and sparse part, it employs a softer constraint than the strict exponential model, which was possible due to sufficient temporal sampling density via spiral acquisition. The low-rank plus sparse reconstruction is fit for the use on dynamic and on inversion recovery data. Thus, motion correction is rendered unnecessary with it. IR-CRISPI was equipped with noise suppression via spatial wavelet filtering. A study comprising 10 patients with cardiac disease show medical applicability. A comparison with performed traditional reference exams offer insight into diagnostic benefits. Especially regarding patients with difficulty to hold their breath, the real-time manner of the IR-CRISPI acquisition provides a valuable alternative and an increase in robustness. In conclusion, especially with IR-CRISPI in free breathing, a major acceleration of the cardiovascular MR exam could be realized. In an acquisition of less than 100 s, it not only includes the information of two traditional protocols (cine and LGE), which take up more than 9.6 min, but also allows adjustment of TI in retrospect and yields lower artifact level with similar image quality. N2 - Diese Arbeit behandelt die Beschleunigung der kardiovaskulären MRT zum Erfassen funktioneller Information bei Steady-State-Kontrast und zur Unter- suchung der Vitalität bei Wiederherstellung der Magnetisierung nach ihrer Inversion. Zwei Ansätze werden eingeführt und im Detail diskutiert: MOCO- MAP, welches ein exponentielles Modell nutzt, um dynamische Daten zu rekonstruieren, und IR-CRISPI, welches mit seinem “low-rank plus sparse"- Algorithmus mit Compressed Sensing verwandt ist. MOCO-MAP ist der Nachfolger der modellbasierten Beschleunigung des Parameter-Mappings (MAP) für die Anwendung im Bereich des Myokards. Hierzu wurde es mit einer Bewegungskorrektur (MOCO) versehen, um expo- nentielles Fitten eines unbewegten Objects in Zeitrichtung zu ermöglichen. Das Einbringen dieses physikalischen Vorwissens zusammen mit dem Erzwin- gen von Konsistenz mit den Messdaten wird dazu genutzt, iterativ eine Bildfolge aus Daten einer deutlich kürzeren Messung als herkömmlich zu rekonstruieren (< 3 s gegenüber ca. 10 s). Die Ergebnisse zeigen die Umsetz- barkeit der Methode sowie die Nachweisbarkeit von Delayed Enhancements im Myokard, aber deutliche funktionelle Abweichungen und Artefakte bereits aufgrund von kleinen Ungenauigkeiten der Bewegungskorrektur. IR-CRISPI geht aus CRISPI hervor, welches zur Auswertung von funk- tionellen Echtzeitdaten bei konstantem Kontrast dient. Mit der Rekon- struktion durch getrennte Berechnung von niedrigrangigem und dünnbe- setztem Matrixanteil wird hier bei der Datenrekonstruktion weniger stark eingeschränkt als bei einem strikten exponentiellen Modell. Die pirale Auf- nahmeweise erlaubt hierzu ausreichend effiziente k-Raumabdeckung. Die “low-rank plus sparse"-Rekonstruktion ist kompatibel mit dynamischen und mit Inversion-Recovery-Daten. Eine Bewegungskorrektur ist folglich nicht nötig. IR-CRISPI wurde mit einer Rauschunterdrückung durch räumliche Wavelet- Filterung versehen. Eine Studie, die 10 Patienten einschließt, zeigt die Eignung für die medizinische Anwendung. Der Vergleich mit herkömm- lichen Aufnahmetechniken lässt auf den gewonnenen diagnostischen Nutzen schließen. Besonders für Patienten, die Schwierigkeiten mit dem Luftanhal- ten haben, eröffnet diese Echtzeitaufnahmemethode eine wertvolle Alterna- tive und erhöhte Stabilität. Am Ende konnte gerade mittels IR-CRISPI eine bemerkenswerte Beschleu- nigung der kardiovaskulären MR-Untersuchung verwirklicht werden. Trotz der kurzen Aufnahmezeit von weniger als 100 s für den kompletten linken Ven- trikel schließt es nicht nur die Information zweier herkömmlicher Protokolle mit ein (Cine und LGE), die zusammen mehr als 9,6 min dauern, sondern es erlaubt zusätzlich auch das Einstellen der TI-Zeit im Nachhinein und liefert Ergebnisse mit geringerem Artefaktlevel bei ähnlicher Bildqualität KW - Kernspintomografie KW - Herzfunktion KW - Herzmuskel KW - Bildgebendes Verfahren KW - Echtzeit KW - cine loop KW - late enhancement KW - late gadolinium-enhancement KW - magnetic resonance imaging KW - real-time imaging KW - spiral trajectory Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-302822 ER - TY - THES A1 - Kiermasch, David T1 - Charge Carrier Recombination Dynamics in Hybrid Metal Halide Perovskite Solar Cells T1 - Ladungsträger-Rekombinationsdynamik in hybriden metall-halogenid Perowskit-Solarzellen N2 - In order to facilitate the human energy needs with renewable energy sources in the future, new concepts and ideas for the electricity generation are needed. Solar cells based on metal halide perovskite semiconductors represent a promising approach to address these demands in both single-junction and tandem configurations with existing silicon technology. Despite intensive research, however, many physical properties and the working principle of perovskite PVs are still not fully understood. In particular, charge carrier recombination losses have so far mostly been studied on pure films not embedded in a complete solar cell. This thesis aimed for the identification and quantification of charge carrier recombination dynamics in fully working devices under conditions corresponding to those under real operation. To study different PV systems, transient electrical methods, more precisely Open-Circuit Voltage Decay (OCVD), Transient Photovoltage (TPV) and Charge Extraction (CE), were applied. Whereas OCVD and TPV provide information about the recombination lifetime, CE allows to access the charge carrier density at a specific illumination intensity. The benefit of combining these different methods is that the obtained quantities can not only be related to the Voc but also to each other, thus enabling to determine also the dominant recombination mechanisms.The aim of this thesis is to contribute to a better understanding of recombination losses in fully working perovskite solar cells and the experimental techniques which are applied to determine these losses. N2 - Um künftig den menschlichen Energiebedarf in Zukunft mit erneuerbaren Energiequellen zu decken sind neue Konzepte und Ideen für die Stromerzeugung erforderlich. Solarzellen auf der Basis von hybriden Perowskit-Halbleitern stellen einen vielversprechenden Ansatz dar, um dieser Anforderung – beispielsweise in Tandem-Konfigurationen zusammen mit Silizium– gerecht zu werden. Trotz intensiver Forschung sind viele physikalische Eigenschaften und das Funktionsprinzip dieser neuartigen Solarzellen immer noch nicht vollständig verstanden. Insbesondere wurden die Rekombinationsverluste bisher meist nur an reinen Schichten untersucht, welche nicht in einen kompletten Solarzellenaufbau integriert waren. Die vorliegende Arbeit zielte auf die Identifizierung und Quantifizierung der Ladungsträger-Rekombinationsdynamik in voll funktionsfähigen Solarzellen unter Bedingungen, die denen im realen Betrieb entsprechen, ab. Um verschiedene PV-Systeme zu untersuchen wurden transiente elektrische Methoden, genauer gesagt OCVD, TPV und CE, angewandt. Während OCVD und TPV Informationen über die Rekombinationslebensdauer liefern, erlaubt CE die Berechnung der Ladungsträgerdichte. Die Kombination dieser Methoden hat den Vorteil, dass die erhaltenen Größen miteinander in Verbindung gesetzt werden können und somit umfangreiche Rückschlüsse auf die zugrundeliegende Rekombinationmechanismen ermöglichen. Das Ziel dieser Arbeit ist es, zu einem besseren Verständnis der Rekombinationsverluste in voll funktionsfähigen Perowskit-Solarzellen und der experimentellen Techniken, die zur Bestimmung dieser Verluste angewandt werden, beizutragen. KW - Solarzelle KW - Perovskite KW - Solar Cell KW - Recombination Dynamics KW - Transient Electrical Methods KW - Charge Carrier Lifetime KW - Capacitive Effects Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-208629 ER - TY - THES A1 - Graetz [geb. Dittmann], Jonas T1 - X-Ray Dark-Field Tensor Tomography : a Hitchhiker's Guide to Tomographic Reconstruction and Talbot Imaging T1 - Röntgen-Dunkelfeld-Tensor-Tomographie : ein Handbuch zur Tomographischen Rekonstruktion und Talbot-Bildgebung N2 - X-ray dark-field imaging allows to resolve the conflict between the demand for centimeter scaled fields of view and the spatial resolution required for the characterization of fibrous materials structured on the micrometer scale. It draws on the ability of X-ray Talbot interferometers to provide full field images of a sample's ultra small angle scattering properties, bridging a gap of multiple orders of magnitude between the imaging resolution and the contrasted structure scale. The correspondence between shape anisotropy and oriented scattering thereby allows to infer orientations within a sample's microstructure below the imaging resolution. First demonstrations have shown the general feasibility of doing so in a tomographic fashion, based on various heuristic signal models and reconstruction approaches. Here, both a verified model of the signal anisotropy and a reconstruction technique practicable for general imaging geometries and large tensor valued volumes is developed based on in-depth reviews of dark-field imaging and tomographic reconstruction techniques. To this end, a wide interdisciplinary field of imaging and reconstruction methodologies is revisited. To begin with, a novel introduction to the mathematical description of perspective projections provides essential insights into the relations between the tangible real space properties of cone beam imaging geometries and their technically relevant description in terms of homogeneous coordinates and projection matrices. Based on these fundamentals, a novel auto-calibration approach is developed, facilitating the practical determination of perspective imaging geometries with minimal experimental constraints. A corresponding generalized formulation of the widely employed Feldkamp algorithm is given, allowing fast and flexible volume reconstructions from arbitrary tomographic imaging geometries. Iterative reconstruction techniques are likewise introduced for general projection geometries, with a particular focus on the efficient evaluation of the forward problem associated with tomographic imaging. A highly performant 3D generalization of Joseph's classic linearly interpolating ray casting algorithm is developed to this end and compared to typical alternatives. With regard to the anisotropic imaging modality required for tensor tomography, X-ray dark-field contrast is extensively reviewed. Previous literature is brought into a joint context and nomenclature and supplemented by original work completing a consistent picture of the theory of dark-field origination. Key results are explicitly validated by experimental data with a special focus on tomography as well as the properties of anisotropic fibrous scatterers. In order to address the pronounced susceptibility of interferometric images to subtle mechanical imprecisions, an efficient optimization based evaluation strategy for the raw data provided by Talbot interferometers is developed. Finally, the fitness of linear tensor models with respect to the derived anisotropy properties of dark-field contrast is evaluated, and an iterative scheme for the reconstruction of tensor valued volumes from projection images is proposed. The derived methods are efficiently implemented and applied to fiber reinforced plastic samples, imaged at the ID19 imaging beamline of the European Synchrotron Radiation Facility. The results represent unprecedented demonstrations of X-ray dark-field tensor tomography at a field of view of 3-4cm, revealing local fiber orientations of both complex shaped and low-contrast samples at a spatial resolution of 0.1mm in 3D. The results are confirmed by an independent micro CT based fiber analysis. N2 - Die Röntgen-Dunkelfeld-Bildgung vermag den Widerspruch zwischen dem Bedarf nach großen Sichtfeldern im Zentimeterbereich und der nötigen Bildauflösung zur Charakterisierung von Fasermaterialien mit Strukturgrößen im Mikrometerbereich aufzulösen. Sie bedient sich dafür der Eigenschaft von Röntgen-Talbot-Interferometern, Ultrakleinwinkelstreueigenschaften einer Probe vollflächig abzubilden, womit eine Lücke von mehreren Größenordnung zwischen der Bildauflösung und der konstrastgebenden Strukturgröße überbrückt werden kann. Der Zusammenhang zwischen Strukturanisotropie und gerichteter Streuung ermöglicht dabei Rückschlüsse auf die Orientierung der Mikrostruktur einer Probe unterhalb der Bildauflösung. Erste Demonstrationen haben, basiered auf verschiedenen heuristischen Signalmodellen und Rekonstruktrionsansätzen, die grundsätzliche Erweiterbarkeit auf die Volumen-Bildgebung gezeigt. In der vorliegenden Arbeit wird, aufbauend auf einer umfassenden Analyse der Dunkelfeld-Bildgebung und tomographischer Rekonstruktionsmethoden, sowohl ein verifiziertes Modell der Signalanisotropie als auch eine Rekonstruktionstechnik entwickelt, die für große tensorwertige Volumina und allgemeine Abbildungsgeometrien praktikabel ist. In diesem Sinne wird ein weites interdisziplinäres Feld von Bildgebungs- und Rekonstruktionsmethoden aufgearbeitet. Zunächst werden anhand einer neuen Einführung in die mathematische Beschreibung perspektivischer Projektionen essenzielle Einsichten in die Zusammenhänge zwischen der greifbaren Realraum-Darstellung der Kegelstrahl-Geometrie und ihrer technisch relevanten Beschreibung mittels homogener Koordinaten und Projektionsmatrizen gegeben. Aufbauend auf diesen Grundlagen wird eine neue Methode zur Auto-Kalibration entwickelt, die die praktische Bestimmung von perspektivischen Abbildungsgeometrien unter minimalen Anforderungen an die experimentelle Ausführung ermöglicht. Passend dazu wird eine verallgemeinerte Formulierung des weit verbreiteten Feldkamp-Algorithmus gegeben, um eine schnelle und flexible Volumenrekonstruktion aus beliebigen tomographischen Bildgebungsgeometrien zu ermöglichen. Iterative Rekonstruktionsverfahren werden ebenfalls für allgemeine Aufnahmegeometrien eingeführt, wobei ein Schwerpunkt auf der effizienten Berechnung des mit der tomographischen Bildgebung assoziierten Vorwärtsproblems liegt. Zu diesem Zweck wird eine hochperformante 3D-Erweiterung des klassischen, linear interpolierenden Linienintegrationsalgorithmus von Joseph entwickelt und mit typischen Alternativen verglichen. In Bezug auf die anisotrope Bildmodalität, die die Grundlage der Tensortomographie bildet, wird der Röntgen-Dunkelfeld-Kontrast umfassend besprochen. Die vorhandende Literatur wird dazu in einen gemeinsamen Kontext und eine gemeinsame Nomenklatur gebracht und mit neuen Überlegungen zu einer konsistenten Darstellung der Theorie zur Dunkelfeldsignalentstehung vervollständigt. Zentrale Ergebnisse werden dabei explizit anhand experimenteller Daten verifiziert, wobei besonders die Tomographie und die Eigenschaften anisotroper, faseriger Streuer im Vordergrund stehen. Um die ausgeprägte Empfindlichkeit interferometrischer Bilder auf feinste mechanische Instabilitäten zu kompensieren, wird ein effizientes Optimierungsverfahren zur Auswertung der Rohdaten aus Talbot-Interferometern entwickelt. Schließlich wird die Anwendbarkeit von linearen Tensor-Modellen in Bezug auf die hergeleiteten Anisotropie-Eigenschaften des Dunkelfeld-Kontrastes diskutiert, und ein iteratives Verfahren für die Rekonstruktion tensorwertiger Volumen aus Projektionsbildern vorgeschlagen. Die entwickelten Methoden werden effizient implementiert und auf Proben aus faserverstärktem Kunstoff angewandt, die dafür an der Bildgebungs-Strahllinie ID19 des Europäischen Synchrotrons ESRF abgebildet wurden. Die Ergebnisse stellen eine bisher einmalige Demonstration von Röntgen-Dunkelfeld-Tensor-Tomographie mit einem Sichtfeld von 3-4cm dar, wobei lokale Faserorientierung sowohl für komplex geformte als auch kontrastarme Objekte mit einer räumlichen Auflösung von 0.1mm in 3D dargestellt werden kann. Ein unabhängiger Vergleich mit Mikro-CT basierter Faser-Analyse bestätigt die Ergebnisse. KW - Dreidimensionale Rekonstruktion KW - Tomografie KW - Faserorientierung KW - Tensor KW - Bildgebendes Verfahren KW - X-Ray Dark-Field KW - Tensor Tomography KW - Volume Reconstruction KW - Fiber Orientation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-281437 ER - TY - THES A1 - Slawig, Anne T1 - Reconstruction methods for the frequency-modulated balanced steady-state free precession MRI-sequence T1 - Rekonstruktionsmethoden für die frequenz-modulierte balanced steady-state free precession MRT-Sequenz N2 - This work considered the frequency-modulated balanced steady-state free precession (fm-bSSFP) sequence as a tool to provide banding free bSSFP MR images. The sequence was implemented and successfully applied to suppress bandings in various in vitro and in vivo examples. In combination with a radial trajectory it is a promising alternative for standard bSSFP applications. First, two specialized applications were shown to establish the benefits of the acquisition strategy in itself. In real time cardiac imaging, it was shown that the continuous shift in frequency causes a movement of the bandings across the FOV. Thus, no anatomical region is constantly impaired, and a suitable timeframe can be found to examine all important structures. Furthermore, a combination of images with different artifact positions, similar to phase-cycled acquisitions is possible. In this way, fast, banding-free imaging of the moving heart was realized. Second, acquisitions with long TR were shown. While standard bSSFP suffers from increasing incidence of bandings with higher TR values, the frequency-modulated approach provided banding free images, regardless of the TR. A huge disadvantage of fm-bSSFP, in combination with the radial trajectory, is the decrease in signal intensity. In this work a specialized reconstruction method, the multifrequency reconstruction for frequency-modulated bSSFP (Muffm), was established, which successfully compensated that phenomena. The application of Muffm to several anatomical sites, such as inner ear, legs and cardiac acquisitions, proofed the advantageous SNR of the reconstruction. Furthermore, fm-bSSFP was applied to the clinically highly relevant task of water-fat separation. Former approaches of a phase-sensitive separation procedure in combination with standard bSSFP showed promising results but failed in cases of high inhomogeneity or high field strengths where banding artifacts become a major issue. The novel approach of using the fm-bSSFP acquisition strategy with the separation approach provided robust, reliable images of high quality. Again, losses in signal intensity could be regained by Muffm, as both approaches are completely compatible. Opposed to conventional banding suppression techniques, like frequency-scouts or phase-cycling, all reconstruction methods established in this work rely on a single radial acquisition, with scan times similar to standard bSSFP scans. No prolonged measurement times occur and patient time in the scanner is kept as short as possible, improving patient comfort, susceptibility to motion or physiological noise and cost of one scan. All in all, the frequency-modulated acquisition in combination with specializes reconstruction methods, leads to a completely new quality of images with short acquisition times. N2 - In dieser Arbeit wird eine Modifikation der balanced steady-state free precession (bSSFP) Sequenz betrachtet. Die frequenzmodulierte bSSFP-Sequenz (fm-bSSFP) kann die sonst typischen Band-Artefakte in bSSFP-MR-Bildern verhindern. Die Sequenz wurde im Rahmen der Arbeit am MR-Scanner implementiert und erfolgreich in verschiedenen in-vitro- und in-vivo-Beispielen angewendet. In Kombination mit einer radialen Trajektorie erwies es sich als eine vielversprechende Alternative für alle Standard-bSSFP Anwendungen. Zuerst wurden zwei spezialisierte Anwendungen gezeigt, um die Vorteile der Akquisitionsstrategie an sich darzustellen. Am Beispiel der Echtzeit-Herzbildgebung konnte mit Hilfe der kontinuierlichen Frequenzverschiebung eine Bewegung der Bänder über das FOV erzeugt werden. Somit wird keine anatomische Region ständig von Artefakten überlagert und für jeden Bereich kann ein geeigneter Zeitrahmen gefunden werden, um die wichtigen Strukturen darzustellen und zu untersuchen. Darüber hinaus ist eine Kombination von Bildern mit verschiedenen Artefaktpositionen möglich, ähnlich zu mehreren Aufnahmen mit verschiedenen Phasenzyklen. Auf diese Weise wurde eine schnelle Bildgebung des sich bewegenden Herzens ohne Bandartefakte realisiert. Zusätzlich wurden Aufnahmen mit langen Repetitionszeiten (TR) untersucht. Während in der Standard-bSSFP die Häufigkeit von Bandartefakten mit steigendem TR-Wert zunimmt, lieferte der frequenzmodulierte Ansatz Banding-freie Bilder unabhängig vom TR. Ein großer Nachteil von fm-bSSFP in Kombination mit der radialen Trajektorie ist der Verlust von Signalintensität bei der Rekonstruktion. In dieser Arbeit wurde eine spezielle Rekonstruktionsmethode namens Muffm (mulitfrequency reconstruction for frequency-modulated bSSFP) etabliert, die diesen Verlust erfolgreich kompensieren kann. Die Anwendung von Muffm an verschiedenen anatomischen Strukturen, wie Innenohr, Bein und Herzaufnahmen, bestätigte das vorteilhafte Signal-zu-Rausch-Verhältnis, dass durch die spezielle Rekonstruktion gewonnen werden kann. Darüber hinaus wurde die fm-bSSFP auf die klinisch interessante Wasser-Fett-Trennung angewandt. Frühere Ansätze eines phasenempfindlichen Trennverfahrens in Kombination mit Standard-bSSFP zeigten vielversprechende Ergebnisse, scheiterten jedoch in Fällen hoher Inhomogenität oder hoher Feldstärken an den auftretenden Bandartefakten. Der neue Ansatz, diesen Separationsalgorithmus mit der fm-bSSFP-Akquisitionsstrategie zu verbinden, lieferte robuste, zuverlässige Bilder von hoher Qualität. Auch hier konnten entstehende Verluste in der Signalintensität durch Muffm zurückgewonnen werden, da beide Ansätze vollständig kompatibel sind. Im Gegensatz zu herkömmlichen Bandunterdrückungstechniken, wie Frequenz-Scouts oder die Aufnahme mehrerer Bilder mit verschiedenen Phasenzyklen, beruhen alle in dieser Arbeit etablierten Rekonstruktionsverfahren auf einer einzigen radialen Aufnahme. Die Messzeiten sind daher identisch zur Aufnahme einer Standard-bSSFP Messung. Das Verfahren ermöglicht eine deutliche Verkürzung der Aufenthaltsdauer im Scanner bei einer gleichzeitigen Garantie ein artefaktfreies Bild zu erhalten. Damit ist es insbesondere für Patienten von Vorteil, die unter Platzangst oder sonstigen Beschwerden leiden, die ein langes Stillliegen erschweren. Außerdem werden Bewegungsartefakte, physiologisches Rauschen und nicht zuletzt die Kosten eines Scans minimiert. Insgesamt bietet die frequenzmodulierte bSSFP Aufnahme in Kombination mit spezialisierten Rekonstruktionsverfahren neue Möglichkeiten zur schnellen Aufnahme von Bildern ohne Bandartefakte. KW - Kernspintomografie KW - Magnetic resonance imaging KW - MRI KW - MRT KW - bSSFP KW - Rekonstruktion KW - reconstruction KW - frequency modulation KW - water fat separation KW - Wasser Fett Trennung KW - balanced steady state free precession Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-162871 ER - TY - INPR A1 - Dandekar, Thomas T1 - Qubit transition into defined Bits: A fresh perspective for cosmology and unifying theories N2 - In this view point we do not change cosmology after the hot fireball starts (hence agrees well with observation), but the changed start suggested and resulting later implications lead to an even better fit with current observations (voids, supercluster and galaxy formation; matter and no antimatter) than the standard model with big bang and inflation: In an eternal ocean of qubits, a cluster of qubits crystallizes to defined bits. The universe does not jump into existence (“big bang”) but rather you have an eternal ocean of qubits in free super-position of all their quantum states (of any dimension, force field and particle type) as permanent basis. The undefined, boiling vacuum is the real “outside”, once you leave our everyday universe. A set of n Qubits in the ocean are “liquid”, in very undefined state, they have all their m possibilities for quantum states in free superposition. However, under certain conditions the qubits interact, become defined, and freeze out, crystals form and give rise to a defined, real world with all possible time series and world lines. GR holds only within the crystal. In our universe all n**m quantum possibilities are nicely separated and crystallized out to defined bit states: A toy example with 6 qubits each having 2 states illustrates, this is completely sufficient to encode space using 3 bits for x,y and z, 1 bit for particle type and 2 bits for its state. Just by crystallization, space, particles and their properties emerge from the ocean of qubits, and following the arrow of entropy, time emerges, following an arrow of time and expansion from one corner of the toy universe to everywhere else. This perspective provides time as emergent feature considering entropy: crystallization of each world line leads to defined world lines over their whole existence, while entropy ensures direction of time and higher representation of high entropy states considering the whole crystal and all slices of world lines. The crystal perspective is also economic compared to the Everett-type multiverse, each qubit has its m quantum states and n qubits interacting forming a crystal and hence turning into defined bit states has only n**m states and not more states. There is no Everett-type world splitting with every decision but rather individual world trajectories reside in individual world layers of the crystal. Finally, bit-separated crystals come and go in the qubit ocean, selecting for the ability to lay seeds for new crystals. This self-organizing reproduction selects over generations also for life-friendliness. Mathematical treatment introduces quantum action theory as a framework for a general lattice field theory extending quantum chromo dynamics where scalar fields for color interaction and gravity have to be derived from the permeating qubit-interaction field. Vacuum energy should get appropriately low by the binding properties of the qubit crystal. Connections to loop quantum gravity, string theory and emergent gravity are discussed. Standard physics (quantum computing; crystallization, solid state physics) allow validation tests of this perspective and will extend current results. KW - qubit KW - cosmology KW - phase transition KW - unified theories KW - crystallization KW - emergent gravity Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-266418 ER - TY - THES A1 - Balzer, Christian T1 - Adsorption-Induced Deformation of Nanoporous Materials — in-situ Dilatometry and Modeling T1 - Adsorptionsinduzierte Deformation nanoporöser Materialien — in-situ Dilatometrie und Modellierung N2 - The goal of this work is to improve the understanding of adsorption-induced deformation in nanoporous (and in particular microporous) materials in order to explore its potential for material characterization and provide guidelines for related technical applications such as adsorption-driven actuation. For this purpose this work combines in-situ dilatometry measurements with in-depth modeling of the obtained adsorption-induced strains. A major advantage with respect to previous studies is the combination of the dilatometric setup and a commercial sorption instrument resulting in high quality adsorption and strain isotherms. The considered model materials are (activated and thermally annealed) carbon xerogels, a sintered silica aerogel, a sintered hierarchical structured porous silica and binderless zeolites of type LTA and FAU; this selection covers micro-, meso- and macroporous as well as ordered and disordered model materials. All sample materials were characterized by scanning electron microscopy, gas adsorption and sound velocity measurements. In-situ dilatometry measurements on mesoporous model materials were performed for the adsorption of N2 at 77 K, while microporous model materials were also investigated for CO2 adsorption at 273 K, Ar adsorption at 77 K and H2O adsorption at 298 K. Within this work the available in-situ dilatometry setup was revised to improve resolution and reproducibility of measurements of small strains at low relative pressures, which are of particular relevance for microporous materials. The obtained experimental adsorption and strain isotherms of the hierarchical structured porous silica and a micro-macroporous carbon xerogel were quantitatively analyzed based on the adsorption stress model; this approach, originally proposed by Ravikovitch and Neimark, was extended for anisotropic pore geometries within this work. While the adsorption in silica mesopores could be well described by the classical and analytical theory of Derjaguin, Broekhoff and de Boer, the adsorption in carbon micropores required for comprehensive nonlocal density functional theory calculations. To connect adsorption-induced stresses and strains, furthermore mechanical models for the respective model materials were derived. The resulting theoretical framework of adsorption, adsorption stress and mechanical model was applied to the experimental data yielding structural and mechanical information about the model materials investigated, i.e., pore size or pore size distribution, respectively, and mechanical moduli of the porous matrix and the nonporous solid skeleton. The derived structural and mechanical properties of the model materials were found to be consistent with independent measurements and/or literature values. Noteworthy, the proposed extension of the adsorption stress model proved to be crucial for the correct description of the experimental data. Furthermore, it could be shown that the adsorption-induced deformation of disordered mesoporous aero-/xerogel structures follows qualitatively the same mechanisms obtained for the ordered hierarchical structured porous silica. However, respective quantitative modeling proved to be challenging due to the ill-shaped pore geometry of aero-/xerogels; good agreement between model and experiment could only be achieved for the filled pore regime of the adsorption isotherm and the relative pressure range of monolayer formation. In the intermediate regime of multilayer formation a more complex model than the one proposed here is required to correctly describe stress related to the curved adsorbate-adsorptive interface. Notably, for micro-mesoporous carbon xerogels it could be shown that micro- and mesopore related strain mechanisms superimpose one another. The strain isotherms of the zeolites were only qualitatively evaluated. The result for the FAU type zeolite is in good agreement with other experiments reported in literature and the theoretical understanding derived from the adsorption stress model. On the contrary, the strain isotherm of the LTA type zeolite is rather exceptional as it shows monotonic expansion over the whole relative pressure range. Qualitatively this type of strain isotherm can also be explained by the adsorption stress model, but a respective quantitative analysis is beyond the scope of this work. In summary, the analysis of the model materials' adsorption-induced strains proved to be a suitable tool to obtain information on their structural and mechanical properties including the stiffness of the nonporous solid skeleton. Investigations on the carbon xerogels modified by activation and thermal annealing revealed that adsorption-induced deformation is particularly suited to analyze even small changes of carbon micropore structures. N2 - Ziel dieser Arbeit ist es, dass Verständnis der adsorptionsinduzierter Deformation von nanoporösen (insbesondere mikroporösen) Materialien zu erweitern, um ihr Potenzial für die Materialcharakterisierung zu erforschen. Zusätzlich sollen Orientierungshilfen für technische Anwendungen, wie z.B. adsorptionsgetriebene Aktuatoren, bereitgestellt werden. Hierfür kombiniert diese Arbeit in-situ Dilatometriemessungen und detaillierte Modellierung der gemessenen adsorptionsinduzierten Dehnungen. Der wesentliche Vorteil dieser Arbeit gegenüber vorherigen Studien ist die Kombination des dilatometrischen Messaufbaus mit einer kommerziellen Gasadsorptionsanlage, was die Messung qualitativ hochwertiger Adsorptions- und Dehnungsisothermen erlaubt. Die betrachteten Materialsysteme sind (aktivierte und geglühte) Kohlenstoffxerogele, ein gesintertes Silica-Aerogel, ein gesintertes, hierarchisch strukturiertes, poröses Silica und binderlose Zeolithe der Typen LTA und FAU. Diese Auswahl umfasst mikro-, meso- und makroporöse ebenso wie geordnete und ungeordnete Modellmaterialien. Alle Modellmaterialien wurden mit Rasterelektronenmikroskopie, Gasadsorption und Schallgeschwindigkeitsmessungen charakterisiert. In-situ Dilatometriemessungen an mesoporösen Modellsystemen wurden für N2-Adsorption bei 77 K durchgeführt, während alle mikroporösen Modellsysteme zusätzlich bei CO2-Adsorption (273 K), Ar-Adsorption (77 K) und H2O-Adsorption (298 K) untersucht wurden. Der verfügbare Messaufbau für in-situ Dilatometrie wurde im Rahmen dieser Arbeit weiterentwickelt, um Auflösung und Reproduzierbarkeit der Messungen von kleinen Dehnungen zu verbessern, was insbesondere für mikroporöse Materialien von Bedeutung ist. Die experimentellen Adsorptions- und Dehnungsisothermen des hierarchisch strukturierten, porösen Silicas und des mikro-makroporösen Kohlenstoff-Xerogels wurden mit dem adsorption-stress-Modell quantitativ ausgewertet. Hierfür wurde das adsorption-stress-Modell, ursprünglich eingeführt von Ravikovitch et al., für die Verwendung von anisotropen Porengeometrien erweitert. Während die der Deformation zu Grunde liegende Adsorption im Fall des mesoporösen Silicas gut mit der klassischen und analytischen Theorie von Derjaguin, Broekhoff und de Boer beschrieben werden konnte, erforderte die Adsorption in den Kohlenstoffmikroporen umfassende Berechnungen mittels nichtlokaler Dichtefunktionaltheorie. Um die adsorptionsinduzierten Spannungen mit entsprechenden Dehnungen zu korrelieren, wurden zusätzlich mechanische Modelle für die untersuchten Materialien entworfen. Das resultierende theoretische Konstrukt aus Adsorptions-, adsorption-stress- und mechanischem Modell wurde auf die ermittelten experimentellen Daten angewandt und strukturelle und mechanische Eigenschaften der Modellmaterialien bestimmt, d.h. Porengröße bzw. Porengrößenverteilung sowie die mechanischen Module der porösen Matrix und des unporösen Festkörperskeletts. Es konnte gezeigt werden, dass die ermittelten Materialeigenschaften konsistent mit unabhängigen Messungen und/oder Literaturwerten sind. Hierbei ist zu beachten, dass sich die Erweiterung des adsorption-stress-Modells für eine korrekte Auswertung der experimentellen Daten als zwingend erforderlich erwies. Des Weiteren konnte gezeigt werden, dass die adsorptionsinduzierte Deformation von ungeordneten mesoporösen Aero-/Xerogelstrukturen qualitativ denselben Mechanismen folgt, die für das geordnete, hierarchisch strukturierte, poröse Silica identifiziert wurden. Die entsprechende quantitative Modellierung erwies sich allerdings als schwierig, da die Poren in Aero-/Xerogelstrukturen geometrisch schlecht zu fassen sind. Gute Übereinstimmung zwischen Modell und Experiment konnte nur für das Stadium gefüllter Poren und den relativen Druckbereich der Monolagenbildung erzielt werden. Der Zwischenbereich der Multilagenadsorption erfordert ein komplexeres Modell, um die Spannung quantitativ korrekt zu beschreiben, die sich auf Grund der gekrümmten Adsorbat-Adsorptiv-Grenzfläche im Material ausbildet. Mit Hinblick auf mikro-mesoporöse Kohlenstoffxerogele konnte gezeigt werden, dass sich dort Deformationsmechanismen von Mikro- und Mesoporen überlagern. Die Dehnungsisothermen der Zeolithe wurden nur qualitativ ausgewertet. Das Ergebnis für den Zeolithen vom Typ FAU stimmt gut mit anderen in der Literatur beschriebenen Experimenten und dem theoretischen Verständnis überein, das sich aus dem adsorption-stress-Modell ergibt. Im Gegensatz dazu ist die gemessene Dehnungsisotherme des Zeolithen vom Typ LTA eher ungewöhnlich, da sie monotone Expansion des LTA-Zeolithen über den gesamten Druckbereich zeigt. Qualitativ kann dieses Ergebnis ebenfals mit dem adsorption-stress-Modell erklärt werden, aber eine detaillierte, quantitative Analyse übersteigt den Rahmen dieser Arbeit. Insgesamt erweist sich die Analyse der adsorptionsinduzierten Dehnungen der Modellmaterialien als geeignetes Mittel, um Informationen über deren strukturelle und mechanische Eigenschaften zu erlangen, was auch die Steifigkeit des unporösen Festkörperskeletts miteinschließt. Desweiteren zeigen Untersuchungen an aktivierten und geglühten Kohlenstoffxerogelen, dass adsorptionsinduzierte Deformation insbesondere geeignet ist, um kleine Änderungen an Mikroporenstrukturen zu analysieren. KW - Nanoporöser Stoff KW - Adsorption KW - Deformation KW - Dilatometrie KW - adsorption-induced deformation KW - density functional theory KW - adsorption KW - deformation KW - nanostructured KW - dilatometer KW - modeling Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157145 ER - TY - THES A1 - Matthaiakakis, Ioannis T1 - Hydrodynamics in Solid State Systems and the AdS/CFT correspondence T1 - Hydrodynamik in Festkörper-Systemen und die AdS/CFT-Korrespondenz N2 - We employ the AdS/CFT correspondence and hydrodynamics to analyze the transport properties of \(2+1\) dimensional electron fluids. In this way, we use theoretical methods from both condensed matter and high-energy physics to derive tangible predictions that are directly verifiable in experiment. The first research topic we consider is strongly-coupled electron fluids. Motivated by early results by Gurzhi on the transport properties of weakly coupled fluids, we consider whether similar properties are manifest in strongly coupled fluids. More specifically, we focus on the hydrodynamic tail of the Gurzhi effect: A decrease in fluid resistance with increasing temperature due to the formation of a Poiseuille flow of electrons in the sample. We show that the hydrodynamic tail of the Gurzhi effect is also realized in strongly coupled and fully relativistic fluids, but with modified quantitative features. Namely, strongly-coupled fluids always exhibit a smaller resistance than weakly coupled ones and are, thus, far more efficient conductors. We also suggest that the coupling dependence of the resistance can be used to measure the coupling strength of the fluid. In view of these measurements, we provide analytical results for the resistance as a function of the shear viscosity over entropy density \(\eta/s\) of the fluid. \(\eta/s\) is itself a known function of the coupling strength in the weak and infinite coupling limits. In further analysis for strongly-coupled fluids, we propose a novel strongly coupled Dirac material based on a kagome lattice, Scandium-substituted Herbertsmithite (ScHb). The large coupling strength of this material, as well as its Dirac nature, provides us with theoretical and experimental access to non-perturbative relativistic and quantum critical physics. A highly suitable method for analyzing such a material's transport properties is the AdS/CFT correspondence. Concretely, using AdS/CFT we derive an estimate for ScHb's \(\eta/s\) and show that it takes a value much smaller than that observed in weakly coupled materials. In turn, the smallness of \(\eta/s\) implies that ScHb's Reynolds number, \(Re\), is large. In fact, \(Re\) is large enough for turbulence, the most prevalent feature of fluids in nature, to make its appearance for the first time in electronic fluids. Switching gears, we proceed to the second research topic considered in this thesis: Weakly coupled parity-breaking electron fluids. More precisely, we analyze the quantitative and qualitative changes to the classical Hall effect, for electrons propagating hydrodynamically in a lead. Apart from the Lorentz force, a parity-breaking fluid's motion is also impacted by the Hall-viscous force; the shear-stress force induced by the Hall-viscosity. We show that the interplay of these two forces leads to a hydrodynamic Hall voltage with non-linear dependence on the magnetic field. More importantly, the Lorentz and Hall-viscous forces become equal at a non-vanishing magnetic field, leading to a trivial hydrodynamic Hall voltage. Moreover, for small magnetic fields we provide analytic results for the dependence of the hydrodynamic Hall voltage on all experimentally-tuned parameters of our simulations, such as temperature and density. These dependences, along with the zero of the hydrodynamic Hall voltage, are distinct features of hydrodynamic transport and can be used to verify our predictions in experiments. Last but not least, we consider how a distinctly electronic property, spin, can be included into the hydrodynamic framework. In particular, we construct an effective action for non-dissipative spin hydrodynamics up to first order in a suitably defined derivative expansion. We also show that interesting spin-transport effects appear at second order in the derivative expansion. Namely, we show that the fluid's rotation polarizes its spin. This is the hydrodynamic manifestation of the Barnett effect and provides us with an example of hydrodynamic spintronics. To conclude this thesis, we discuss several possible extensions of our research, as well as proposals for research in related directions. N2 - Wir verwenden die AdS/CFT-Korrespondenz und die Theorie der Hydrodynamik, um die Transporteigenschaften von \(2+1\)-dimensionalen Elektronisches Flüssigkeiten zu untersuchen. Somit nutzen wir sowohl theoretische Methoden der Fest\-körper\-physik als auch der Hochenergiephysik, um konkrete Vorhersagen zu treffen, die unmittelbar in Experimenten verifiziert werden können. Zunächst betrachten wir das Forschungsfeld der stark gekoppelten Elektronischen Flüssigkeiten. Motiviert durch die frühen Ergebnisse für die Transporteigenschaften schwach gekoppelter Flüssigkeiten von Gurzhi untersuchen wir, ob sich ähnliche Eigenschaften auch in stark gekoppelten Flüssigkei\-ten manifestieren. Dabei konzentrieren wir uns insbesondere auf den hydrodynamischen Teil des Gurzhi-Effekts, in welchem der Widerstand der Flüssigkeit mit steigender Temperatur sinkt, weil sich im untersuchten Material ein Poiseuillefluss von Elektronen bildet. Wir zeigen, dass dieser hydrodynamische Teil des Gurzhi-Effekts auch in stark gekoppelten und vollständig relativistischen Flüssigkeiten realisiert ist, einige Eigenschaften sich hierbei aber quantitativ unterscheiden. Insbesondere zeigen stark gekoppelte Flüssigkeiten immer kleinere Widerstände als schwach gekoppelte, und sind damit wesentlich effektivere Leiter. Wir schlagen darüber hinaus vor, die Abhängigkeit des Widerstands von der Kopplung zu nutzen, um die Kopplungsstärke der Flüssigkeit zu messen. Für diese Messungen stellen wir analytische Ergebnisse bereit, welche den Widerstand als Funktion des Quotienten aus Scherviskosität und Entropiedichte \(\eta/s\) der Flüssigkeit ausdrücken. Dabei ist \(\eta/s\) selbst eine bekannte Funktion der Kopplungsstärke in den Grenzfällen schwacher und unendlich starker Kopplung. In einer weiteren Untersuchung stark gekoppelter Flüssigkeiten schlagen wir Scandium-substituiertes Herbertsmithit (ScHb) als neuartiges, stark gekoppeltes Diracmaterial vor, welches auf dem Kagome-Gitter basiert. Die hohe Kopplungsstärke und die Dirac-Eigenschaften dieses Materials vermitteln uns theoretischen und experimentellen Zugang zu nicht perturbativer relativistischer und quantenkritischer Physik. Um die Transporteigenschaften eines solchen Materials zu untersuchen, stellt die AdS/CFT-Korrespondenz eine hervorragend geeignete Methode dar. Konkret nutzen wir AdS/CFT, um eine Abschätzung von \(\eta/s\) in ScHb herzuleiten. Der so ermittelte Wert ist wesentlich kleiner als der entsprechende Messwert für schwach gekoppelte Materialien. Der kleine Wert von \(\eta/s\) wiederum impliziert, dass die Reynolds-Zahl \(Re\) in ScHb groß ist. Tatsächlich ist \(Re\) hinreichend groß, um erstmals Turbulenz in Elektronisches Flüssigkeiten beobachten zu können, ein Effekt, der auch in viele anderen Flüssigkeiten in der Natur vorkommt. Wir gehen zum zweiten Forschungsthema über, welches in der vorliegenden Arbeit besprochen wird: schwach gekoppelte, paritätsbrechende Elektronisches Flüssigkeiten. Wir betracthen die hydrodynamische Bewegung von Elektronen in einen zwei dimensionalen Kanal, und untersuchen die sich ergebenden quantitativen und qualitativen Änderungen gegenüber dem klassischen Hall-Effekt. Außer der Lorentzkraft ist die Bewegung einer paritätsbrechenden Flüss auch den Einflüssen der Hallviskositätskraft ausgesetzt, welche die von der Hall Viskosität induzierte Scherspannungskraft ist. Wir zeigen, dass das Wechselspiel dieser beiden Kräfte zu einer hydrodynamischen Hall-Spannung führt, die nicht linear vom magnetischen Feld abhängt. Noch wichtiger ist, dass Lorentz- sowie hallviskose Kraft für ein nicht verschwindendes Magnetfeld gleich werden und damit zu einer trivialen hydrodynamischen Hall-Spannung führen. Darüber hinaus geben wir für kleine Magnetfeldstärken analytische Ergebnisse an, die die Abhängigkeit der hydrodynamischen Hall-Spannung von allen experimentell festgelegten Parametern unserer Simulation, wie z.B. Temperatur und Dichte, beschreiben. Diese Abhängigkeiten sind zusammen mit der verschwindenden hydrodynamischen Hall-Spannung charakteristische Eigenschaften hydrodynamischen Transports und können daher verwendet werden, um unsere Vorhersagen experimentell zu verifizieren. Zu guter Letzt untersuchen wir, wie eine charakteristische Eigenschaft von Elektronen, der Spin, in die hydrodynamische Theorie einbezogen werden kann. Dazu konstruieren wir eine effektive Wirkung, die nicht dissipative Spin-Hydrodynamik bis zur ersten Ordnung in einer geeigneten Ableitungsentwicklung beschreibt. Wir zeigen darüber hinaus, dass in zweiter Ordnung dieser Entwicklung interessante Spin-Transporteffekte auftreten. Dabei stellt sich heraus, dass die Rotation der Flüssigkeit seinen Spin polarisiert. Dies ist die hydrodynamische Manifestation des Barnett-Effekts, die als Beispiel für hydrodynamische Spintronics dient. Zum Abschluss der vorliegenden Arbeit diskutieren wir mehrere mögliche Erweiterungen unserer Untersuchungen und unterbreiten Vorschläge für weitergehende Forschung in verschiedene Richtungen. KW - Hydrodynamics KW - Solid state physic KW - Electron hydrodynamics KW - AdS-CFT-Korrespondenz Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-244390 ER - TY - THES A1 - Soares Machado, Jéssica T1 - Dosimetry-based Assessment of Radiation-associated Cancer risk for \(^9\)\(^9\)\(^m\)Tc-MAG3 Scans in Infants and Optimization of Administered Activities for \(^6\)\(^8\)Ga-labelled Peptides in Children and Adolescents T1 - Dosimetrie-basierte Abschätzung des strahlungsassoziierten Krebsrisikos für \(^9\)\(^9\)\(^m\)Tc-MAG3-Scans bei Säuglingen und Optimierung der verabreichten Aktivitäten für \(^6\)\(^8\)Ga-markierte Peptide bei Kindern und Jugendlichen N2 - In 2006, 0.18 Mio pediatric nuclear medicine diagnostic exams were performed worldwide. However, for most of the radiopharmaceuticals used data on biokinetics and, as a consequence on dosimetry, are missing or have not been made publicly available. Therefore, most of the dosimetry assessments presented today for diagnostic agents in children and adolescents rely on the biokinetics data of adults. Even for one of the most common nuclear medicine exams for this patient group, renal scintigraphy with 99mTc-MAG3 for assessing renal function measured data on biokinetics is available only from a study performed on four children of different ages. In particular, renal scans are among the most frequent exams performed on infants and toddlers. Due to the young age, this patient group can be classified as a risk group with a higher probability of developing stochastic radiation effects compared to adults. As there are only limited data on biokinetics and dosimetry in this patient group, the aim of this study is to reassess the dosimetry and the associated radiation risk for a larger number of infants undergoing 99mTc-MAG3 renal scans based on a retrospective analysis of existing patient data. Data were collected retrospectively from 34 patients younger than 20 months with normal (20 patients) and abnormal renal function (14 patients) undergoing 99mTc-MAG3 scans. The patient-specific organ activity was estimated based on a retrospective calibration which was performed based on a set of two 3D-printed infant kidneys (newborns: 8.6 ml; 1-year-old: 23.4 ml) filled with known activities. Both phantoms were scanned at different positions along the anteroposterior axis inside a water phantom, providing depth- and size-dependent attenuation correction factors for planar imaging. Time-activity curves were determined by drawing kidney, bladder, and whole body regions-of-interest for each patient, and subsequently applying the calibration factor for conversion of counts to activity. Patient-specific time-integrated activity coefficients were obtained by integrating the organ-specific time-activity curves. Absorbed and effective dose coefficients for each patient were assessed with OLINDA/EXM for the provided newborn and 1-year-old phantom. Based on absorbed dose values, the radiation risk estimation was performed individually for each of the 34 patients with the National Cancer Institute’s Radiation Risk Assessment Tool. The patients’ organ-specific mean absorbed dose coefficients for the patients with normal renal function were 0.04±0.03 mGy/MBq for the kidneys and 0.27±0.24 mGy/MBq for the bladder. This resulted in a mean effective dose coefficient of 0.02±0.02 mSv/MBq. Based on the dosimetry results, the evaluation of the excess lifetime risk (ELR) for the development of radiation-induced cancer showed that the group of newborns has an ELR of 16.8 per 100,000 persons, which is higher in comparison with the 1-year-old group with an ELR of 14.7 per 100,000 persons. With regard to the 14 patients with abnormal renal function, the mean values for the organ absorbed dose coefficients for the patients were: 0.40±0.34 mGy/MBq for the kidneys and 0.46±0.37 mGy/MBq for the bladder. The corresponding effective dose coefficients (mSv/MBq) was: 0.05±0.02 mSv/MBq. The mean ELR (per 100,000 persons) for developing cancer from radiation exposure for patients with abnormal renal function was 29.2±18.7 per 100,000 persons. As a result, the radiation-associated stochastic risk increases with the organ doses, taking age- and gender-specific influences into account. Overall, the lifetime radiation risk associated with the 99mTc-MAG3 scans is very low in comparison to the general population risk for developing cancer. Furthermore, due to the increasing demand for PET-scans in children and adolescents with 68Ga-labelled peptides, in this work published data sets for those compounds were analyzed to derive recommendations for the administered activities in children and adolescents. The recommendation for the activities to be administered were based on the weight-independent effective dose model, proposed by the EANM Pediatric Dosage Card for application in pediatric nuclear medicine. The aim was to derive recommendations on administered activities for obtaining age-independent effective doses. Consequently, the corresponding weight-dependent effective dose coefficients were rescaled according to the formalism of the EANM dosage card, to determine the radiopharmaceutical class of 68Ga-labeled peptides (“multiples”), and to calculate the baseline activities based on the biokinetics of these compounds and an upper limit of the administered activity of 185 MBq for an adult. Analogous to 18F-fluoride, a minimum activity of 14 MBq is recommended. As a result, for those pediatric nuclear medicine applications involving 68Ga-labeled peptides, new values for the EANM dosage card were proposed and implemented based on the results derived in this work. Overall, despite the low additional radiation-related cancer risk, all efforts should be undertaken to optimize administered activities in children and adolescents for obtaining sufficient diagnostic information with minimal associated radiation risk. N2 - Im Jahr 2006 wurden weltweit 0,18 Mio. nuklearmedizinische Diagnostikuntersuchungen bei Kindern durchgeführt. Für die meisten Radiopharmazeutika fehlen jedoch Daten zur Biokinetik und damit zur Dosimetrie oder diese wurden nicht öffentlich zugänglich gemacht. Daher basieren die meisten der heute vorgestellten Dosimetriedaten für Diagnostika bei Kindern und Jugendlichen auf den biokinetischen Daten von Erwachsenen. Selbst für eine der häufigsten nuklearmedizinischen Untersuchungen für diese Patientengruppe, die Nierenszintigraphie mit 99mTc-MAG3 für Bestimmung der Nierenfunktion, wurden Daten zur Biokinetik bisher nur für vier Kinder unterschiedlichen Alters erhoben. Insbesondere Nierenuntersuchungen gehören zu den häufigsten Untersuchungen bei Säuglingen und Kleinkindern. Aufgrund des jungen Alters kann diese Patientengruppe als Hochrisikogruppe mit einer höheren Wahrscheinlichkeit für das Eintreten stochastischer Strahlenwirkungen im Vergleich zu Erwachsenen eingestuft werden. Da es in dieser Patientengruppe nur begrenzte Daten zur Biokinetik und Dosimetrie gibt, ist das Ziel dieser Arbeit, die Dosimetrie und das damit verbundene Strahlenrisiko für eine größere Anzahl von Kleinkindern, die sich 99mTc-MAG3-Nierenscans unterziehen, auf der Grundlage einer retrospektiven Analyse bestehender Patientendaten neu zu bewerten. Die Daten wurden retrospektiv von 34 Patienten unter 20 Monaten mit normaler (20 Patienten) und eingeschränkter Nierenfunktion (14 Patienten) erhoben, bei denen 99mTc-MAG3-Scans durchgeführt wurden. Die patientenspezifische Organaktivität wurde basierend auf einer retrospektiven Kalibrierung abgeschätzt. Diese Kalibrierung basiert auf einem Satz von zwei 3D-gedruckten Säuglingsnieren, die mit bekannten Aktivitäten gefüllt wurden. Beide Phantome wurden an verschiedenen Positionen entlang der anteroposterioren Achse innerhalb eines Wasserphantoms gescannt und lieferten tiefen- und größenabhängige Schwächungskorrekturfaktoren für die planare Bildgebung. Die Zeit-Aktivitäts-Kurven wurden bestimmt, indem für jeden Patienten Nieren-, Blasen- und Ganzkörperregionen eingezeichnet und anschließend der entsprechende Kalibrierfaktor für die Umwandlung der Zählraten in Aktivität angewendet wurde. Patientenspezifische zeitintegrierte Aktivitätskoeffizienten wurden durch Integration der organspezifischen Zeit-Aktivitätskurven ermittelt. Die Energie- und effektiven Dosiskoeffizienten für jeden Patienten wurden mit OLINDA/EXM für das bereitgestellte Neugeborenen- und 1-Jahres-Phantom ermittelt. Basierend auf diesen Werten für die Energiedosen wurde eine individuelle Abschätzung des Strahlenrisikos für jeden der 34 Patienten mit dem Radiation Risk Assessment Tool des National Cancer Institute durchgeführt. Die organspezifischen mittleren Energiedosiskoeffizienten der Patienten mit normaler Nierenfunktion lagen bei 0,04±0,03 mGy/MBq für die Nieren und 0,27±0,24 mGy/MBq für die Blase, was in einem mittleren effektiven Dosiskoeffizienten von 0,02±0,02 mSv/MBq resultiert. Basierend auf den Ergebnissen der Dosimetrie, zeigte die Auswertung des zusätzlichen Lebenszeitrisikos ("excess lifetime risk", ELR) für die Entwicklung von strahleninduziertem Krebs, dass die Gruppe der Neugeborenen ein ELR von 16,8 pro 100.000 Personen aufweist, was höher ist als das der Gruppe der 1-jährigen mit 14,7 pro 100.000 Personen. Bei den 14 Patienten mit abnormaler Nierenfunktion waren die Mittelwerte für die Koeffizienten der organspezifischen Energiedosen für die Patienten: 0,40±0,34 mGy/MBq für die Nieren; 0,46±0,37 mGy/MBq für die Blase. Der effektivendosiskoeffizienten (mSv/MBq) waren: 0,05±0,02 mSv/MBq. Der mittlere ELR (pro 100.000 Personen) für die Entstehung von Krebs durch die Strahlenexposition von Patienten mit abnormaler Nierenfunktion betrug 29,2±18,7 pro 100.000 Personen. Das mit der Strahlung verbundene stochastische Risiko steigt mit den Organdosen unter Berücksichtigung alters- und geschlechtsspezifischer Einflüsse. Im Allgemeinen ist das mit den 99mTc-MAG3-Scans verbundene lebenslange Strahlenrisiko im Vergleich zum allgemeinen Bevölkerungsrisiko für die Entstehung von Krebs sehr gering. Aufgrund der steigenden Nachfrage nach PET-Scans bei Kindern und Jugendlichen mit 68Ga-markierten Peptiden wurden zusätzlich publizierte Datensätze für diese Verbindungen analysiert, um Empfehlungen für zu verabreichende Aktivitäten bei Kindern und Jugendlichen abzuleiten. Die Dosisberechnungen dazu basierten auf dem Modell einer gewichtsunabhängigen effektiven Dosis, das von der EANM Pediatric Dosage Card für den Einsatz in der pädiatrischen Nuklearmedizin vorgeschlagen wurde. Ziel war es, Empfehlungen zu verabreichenden Aktivitäten so aufzuteilen, dass sich altersunabhängige effektive Dosen ergeben. Dazu wurden die entsprechenden gewichtsabhängigen effektiven Dosiskoeffizienten gemäß dem Formalismus der EANM-Dosierungsempfehlung neu berechnet, um die radiopharmazeutische Klasse der 68Ga-markierten Peptide ("Multiples") zu bestimmen und die Werte für Basisaktivität zu berechnen. Diese basierend auf den Biokinetiken dieser Verbindungen und einer Obergrenze der verabreichten Aktivität von 185 MBq für einen Erwachsenen. Analog zu 18F-Fluorid, wird eine Mindestaktivität von 14 MBq empfohlen. Darauf basierend wurden für die pädiatrischen nuklearmedizinischen Anwendungen mit 68Ga-markierten Peptiden neue Werte für die EANM-Dosierungsempfehlung vorgeschlagen. Insgesamt sollten, trotz des geringen zusätzlichen strahlenbedingten Krebsrisikos, alle Anstrengungen unternommen werden, um die verabreichten Aktivitäten bei Kindern und Jugendlichen zu optimieren, um ausreichende diagnostische Informationen bei minimalem zusätzlichem Strahlenrisiko zu erhalten. KW - Biokinetics KW - Absorbed Doses KW - Risk Assessment KW - Pediatric Patients KW - Dosimetry KW - Nuclear Medicine KW - Pediatric Nuclear Medicine KW - Diagnostic Imaging Exams KW - Radiation Protection KW - Administered Activities KW - Radiation-associated Cancer Risk KW - Ga-68-labelled Peptides KW - Tc-99m-MAG3 Scans Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-192640 ER - TY - THES A1 - Elsholz, Markus T1 - Das akademische Selbstkonzept angehender Physiklehrkräfte als Teil ihrer professionellen Identität – Dimensionalität und Veränderung während einer zentralen Praxisphase T1 - Pre-Service Teachers‘ Academic Self-Concept as Part of their Professional Identity – Dimensionality and Change during a Practical Training N2 - Die vorliegende Arbeit untersucht die Struktur und die Veränderung des akademischen Selbstkonzepts angehender Physiklehrkräfte. Als selbstbezogene Kognition wird es als eine Grundlage der professionellen Identität von Lehrkräften verstanden. Selbstkonzepte bilden sich aus der Kategorisierung selbstrelevanter Informationen, die eine Person in verschiedenen Kontexten sammelt, bewertet und interpretiert. Für angehende Lehrkräfte wird der professionelle Kontext durch die Struktur und die Inhalte des Lehramtsstudiums gebildet. Daraus folgt die erste zentrale Hypothese der Arbeit: Im akademischen Selbstkonzept angehender Physiklehrkräfte lassen sich drei Facetten empirisch trennen, die den inhaltlichen Domänen des Lehramtsstudiums entsprechen. Demnach strukturieren Studierende ihre Fähigkeitszuschreibungen in Bezug auf (1) die Fachwissenschaft Physik, (2) die Fachdidaktik Physik sowie (3) die Erziehungswissenschaften. Konkrete Erfahrungen bilden als Quelle selbstrelevanter Informationen die Basis für den Aufbau bzw. die Veränderung von domänenspezifischen Selbstkonzeptfacetten. Sie stabilisieren das Selbstkonzept, falls sie im Einklang mit dem bisherigen Bild der Person von sich selbst stehen bzw. können eine Veränderung des Selbstkonzepts initiieren, wenn sie sich nicht konsistent in dieses Bild einfügen lassen. Vor diesem Hintergrund folgt die zweite zentrale Hypothese der vorliegenden Arbeit: Während der Praxisphasen des Studiums verändert sich das akademische Selbstkonzept der Studierenden. Die Hypothesen werden mit Ansätzen der latenten Modellierung untersucht. Mittels konfirmatorischer Faktorenanalyse wird die empirische Trennbarkeit der drei angenommenen Facetten bestätigt. In einer querschnittlichen Betrachtung zeigt sich ein deutlicher Einfluss des Geschlechts der Studierenden auf den Zusammenhang zwischen ihrem fachdidaktischen Selbstkonzept und ihrer bisherigen Praxiserfahrung. Die längsschnittliche Analyse der Veränderung des Selbstkonzepts während einer zentralen fachdidaktischen Lehrveranstaltung mit ausgeprägten Praxisphasen (Lehr-Lern-Labor-Seminar) wird mit einem latenten Wachstumskurvenmodell untersucht. Das auf die Fachdidaktik Physik bezogene Selbstkonzept steigt während des Seminars leicht an, wenn die Studierenden zum Seminarbeginn bereits über Praxiserfahrung verfügten. Fehlt diese, so ist ein leichter Rückgang in der Ausprägung des Selbstkonzepts feststellbar, der für weibliche Studierende stärker ausfällt als für ihre männlichen Kommilitonen. Mit den Befunden zu Struktur und Veränderung des akademischen Selbstkonzepts angehender Physiklehrkräfte trägt die vorliegende Arbeit dazu bei, die überwiegend qualitativen Analysen von Identitätsprozessen bei Studierenden durch den Einsatz eines theoretisch fundierten und klar umrissenen Konstrukts um eine quantitative Perspektive zu ergänzen. N2 - This study examines the structure and the change of the academic self-concept of preservice physics teachers. As a self-directed cognition, self-concept is understood as a basis for the professional identity of teachers. Self-concepts are formed by the categorization of context specific self-relevant information that a person collects, evaluates and interprets. In teacher education, the professional context for prospective teachers is formed by the structure and content of the specific teacher education program. Therefore the first central hypothesis of this thesis can be deduced: In the academic self-concept of pre-service physics teachers three facets can be separated empirically, which correspond to the content domains of the teacher education program, i. e. (1) physics, (2) physics didactics, and (3) educational sciences. Self-relevant experiences form the basis for building up or changing domain-specific self-concept facets. They are the source of self-relevant information that either stabilizes the self-concept if it is consistent with the person’s perception of him- or herself or can initiate a self-concept change if it can not be consistently integrated. Against this background, the second central hypothesis of the study follows: Practical trainings in initial teacher education are accompanied by a change in the pre-service teachers’ academic self-concept. The hypotheses are examined within a latent modeling approach. Confirmatory factor analysis confirms the empirical separability of the three assumed self-concept facets. A cross-sectional analysis reveals the influence of gender on the interrelation between pre-service teachers’ didactic self-concept and their prior teaching experience. The change in self-concept accompanying to a mandatory course in physics didactics and a practical training (Lehr-Lern-Labor-Seminar) is evaluated fitting a latent growth curve model. The self-concept facet related to physics didactics slightly increases during the seminar if the pre-service teachers already had teaching experience at the beginning of the seminar. In the subsample without teaching experience, a slight decline in the self-concept is noticeable. With the findings on the structure and change of the academic self-concept, this study contributes to supplementing the predominantly qualitative analyzes of identity processes in prospective teachers with a quantitative perspective by using a theoretically founded and clearly defined construct. KW - Selbstbild KW - Identität KW - Lehrerbildung KW - Analyse latenter Strukturen KW - Fachdidaktik KW - Selbstkonzept KW - self-concept KW - pre-service teachers KW - Lehramtsstudierende Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-172153 N1 - Erscheint auch als Buchhandelsausgabe im Logos Verlag Berlin (2019) ER - TY - THES A1 - Gram, Maximilian T1 - Neue Methoden der Spin-Lock-basierten Magnetresonanztomographie: Myokardiale T\(_{1ρ}\)-Quantifizierung und Detektion magnetischer Oszillationen im nT-Bereich T1 - New methods of spin-lock-based magnetic resonance imaging: myocardial T\(_{1ρ}\) quantification and detection of magnetic oscillations in the nT range N2 - Das Ziel der vorliegenden Arbeit war die Entwicklung neuer, robuster Methoden der Spin-Lock-basierten MRT. Im Fokus stand hierbei vorerst die T1ρ-Quantifizierung des Myokards im Kleintiermodell. Neben der T1ρ-Bildgebung bietet Spin-Locking jedoch zusätzlich die Möglichkeit der Detektion ultra-schwacher, magnetischer Feldoszillationen. Die Projekte und Ergebnisse, die im Rahmen dieses Promotionsvorhabens umgesetzt und erzielt wurden, decken daher ein breites Spektrum der Spin-lock basierten Bildgebung ab und können grob in drei Bereiche unterteilt werden. Im ersten Schritt wurde die grundlegende Pulssequenz des Spin-Lock-Experimentes durch die Einführung des balancierten Spin-Locks optimiert. Der zweite Schritt war die Entwicklung einer kardialen MRT-Sequenz für die robuste Quantifizierung der myokardialen T1ρ-Relaxationszeit an einem präklinischen Hochfeld-MRT. Im letzten Schritt wurden Konzepte der robusten T1ρ-Bildgebung auf die Methodik der Felddetektion mittels Spin-Locking übertragen. Hierbei wurden erste, erfolgreiche Messungen magnetischer Oszillationen im nT-Bereich, welche lokal im untersuchten Gewebe auftreten, an einem klinischen MRT-System im menschlichen Gehirn realisiert. N2 - The main goal of the present work was to develop new, robust methods of spin-lock-based MRI. The initial focus was on T1ρ quantification of the myocardium in small animal models. However, in addition to T1ρ imaging, spin-locking offers the possibility of detecting ultra-weak magnetic field oscillations. The projects and results realized and obtained in this PhD project therefore cover a broad spectrum of spin-lock based imaging and can be roughly divided into three areas. The first step was to optimize the basic pulse sequence of the spin-lock experiment by introducing balanced spin-locking. The second step was to develop a cardiac MRI sequence for robust quantification of the myocardial T1ρ relaxation time on a preclinical high-field MRI scanner. In the final step, concepts of robust T1ρ imaging were adapted to spin-lock based magnetic field detection. First successful measurements of magnetic field oscillations in the nT range, which occur locally inside the tissue under investigation, were realized on a clinical MRI system in the human brain. KW - Kernspintomografie KW - Magnetresonanztomographie KW - Kernspinresonanz KW - Spin-Lock KW - T1ρ KW - T1rho KW - Kardio-MRT KW - Rotary Excitation KW - Myokardiale T1ρ-Quantifizierung KW - Felddetektion KW - funktionelle MRT Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322552 ER - TY - INPR A1 - Dandekar, Thomas T1 - Protein folding and crystallization applied to qubit interactions and fundamental physics yields a modified inflation model for cosmology N2 - Protein folding achieves a clear solution structure in a huge parameter space (the so-called protein folding problem). Proteins fold in water, and get by this a highly ordered structure. Finally, inside a protein crystal for structure resolution, you have everywhere the same symmetries as there is everywhere the same unit cell. We apply this to qubit interactions to do fundamental physics: in a modified cosmology, we replace the big bang by a condensation event in an eternal all-encompassing ocean of free qubits. Interactions of qubits in the qubit ocean are quite rare but provide a nucleus or seed for a new universe (domain) as the qubits become decoherent and freeze-out into defined bit ensembles. Second, we replace inflation by a crystallization event triggered by the nucleus of interacting qubits to which rapidly more and more qubits attach (like in everyday crystal growth). The crystal unit cell guarantees same symmetries everywhere inside the crystal. The textbook inflation scenario to explain the same laws of nature in our domain is replaced by the unit cell of the crystal formed. Interacting qubits solidify, quantum entropy decreases (but increases in the ocean around). In a modified inflation scenario, the interacting qubits form a rapidly growing domain where the n**m states become separated ensemble states, rising long-range forces stop ultimately further growth. Then standard cosmology with the hot fireball model takes over. Our theory agrees well with lack of inflation traces in cosmic background measurements. We explain by cosmological crystallization instead of inflation: early creation of large-scale structure of voids and filaments, supercluster formation, galaxy formation, and the dominance of matter: the unit cell of our crystal universe has a matter handedness avoiding anti-matter. We prove initiation of qubit interactions can only be 1,2,4 or 8-dimensional (agrees with E8 symmetry of our universe). Repulsive forces at ultrashort distances result from quantization, long-range forces limit crystal growth. Crystals come and go in the qubit ocean. This selects for the ability to lay seeds for new crystals, for self-organization and life-friendliness. The phase space of the crystal agrees with the standard model of the basic four forces for n quanta. It includes all possible ensemble combinations of their quantum states m, a total of n**m states. Neighbor states reach according to transition possibilities (S-matrix) with emergent time from entropic ensemble gradients. However, in our four dimensions there is only one bit overlap to neighbor states left (almost solid, only below Planck quantum there is liquidity left). The E8 symmetry of heterotic string theory has six curled-up, small dimensions which help to keep the qubit crystal together and will never expand. Mathematics focusses on the Hurwitz proof applied to qubit interaction, a toy model of qubit interaction and repulsive forces of qubits. Vacuum energy gets appropriate low inside the crystal. We give first energy estimates for free qubits vs bound qubits, misplacements in the qubit crystal and entropy increase during qubit decoherence / crystal formation. Scalar fields for color interaction/confinement and gravity are derived from the qubit-interaction field. KW - protein folding KW - crystallization KW - qubit interaction KW - decoherence KW - modified inflation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-346156 ER - TY - THES A1 - Imhof, Stefan Michael T1 - The effects of non-Hermiticity and non-linearity on topological phenomena investigated in electric networks T1 - Die Einflüsse von Nicht-Hermitizität und Nicht-Linearität auf topologische Phänomene untersucht in elektrischen Schaltkreisen N2 - Topological phenomena known from solid state physics have been transferred to a variety of other classical and quantum systems. Due to the equivalence of the Hamiltonian matrix describing tight binding models and the grounded circuit Laplacian describing an electrical circuit we can investigate such phenomena in circuits. By implementing different Hermitian topological models general suggestions on designing those types of circuit are worked out with the aim of minimizing unwanted coupling effects and parasitic admittances in the circuit. Here the existence and the spatial profile of topological states as well as the band structure of the model can be determined. Due to the complex nature of electric admittance the investigations can be directly expanded to systems with broken Hermiticity. The particular advantages of the experimental investigation of non-exclusively topological phenomena by means of electric circuits come to light in the realization of non-Hermitian and non-linear models. Here we find limitation of the Hermitian bulk-boundary correspondence principle, purely real eigenvalues in non-Hermitian PT-symmetrical systems and edge localization of all eigenstates in non-Hermitian and non-reciprocal systems, which in literature is termed the non-Hermitian skin effect. When systems obeying non-linear equations are studied, the grounded circuit Laplacian based on the Fourier-transform cannot be applied anymore. By combination of the connectivity of a topological system together with non-linear van der Pol oscillators self-activated and self-sustained topological edge oscillations can be found. These robust high frequency sinusoidal edge oscillations differ significantly from low frequency relaxation oscillations, which can be found in the bulk of the system. N2 - Die vorliegende Dissertation befasst sich mit der Realisierung, dem Nachweis und der Charakterisierung topologieinduzierter Zustände und Phänomene in elektrischen Schaltkreisen, den sogenannten ”topolectric circuits“, motiviert durch Erkenntnisse aus der Festkörperphysik. Hierfur wird die Beschreibung eines elektrischen Schaltkreises mithilfe des Knotenpotentialverfahrens verwendet, welches Potentiale und extern zugeführte Ströme von Schaltungen bestehend aus linearen elektrischen Bauelementen kompakt durch eine Admittanzmatrix miteinander verknüpft. Aufgrund der ̈Aquivalenz eines mithilfe von konzentrierten Bauteilen beschreibbaren Schaltkreises und eines gewichteten Graphens wird der Matrixformalismus in Bezug auf die zugrundeliegende Graphentheorie zum grounded circuit Laplacian Formalismus erweitert. Dieser dient anschließend als Grundlage fur die Verkn üpfung von elektrischen Schaltkreisen und festkörperphysikalischen Modellsystemen mit topologieinduzierten Pänomenen, die nicht auf der quantenphysikalischen Natur des Festkörpers beruhen. Denn der den Kristall beschreibende, quantenmechanische Hamiltonoperator in tight binding (engl. für: enge Bindung) Näherung kann in ̈ahnlicher Matrixschreibweise dargestellt werden. Dadurch können anschließend durch Messungen im Schaltkreis ̈aquivalent aufgrund der ̈Ahnlichkeit der beiden Matrizen Ruckschlüsse auf Elektron-Wellenfunktionen, deren Energien und die elektronische Bandstruktur des Festkörpers gezogen werden. ... KW - Metamaterial KW - Topologischer Isolator KW - PT-Transformation KW - Analogschaltung KW - LC-Oszillator KW - Topological metamaterial KW - Non-Hermitian skin effect KW - Topolectrics KW - Bulk-boundary correspondence Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323329 ER - TY - THES A1 - Kleineisel, Jonas T1 - Variational networks in magnetic resonance imaging - Application to spiral cardiac MRI and investigations on image quality T1 - Variational Networks in der Magnetresonanztomographie - Anwendung auf spirale Herzbildgebung und Untersuchungen zur Bildqualität N2 - Acceleration is a central aim of clinical and technical research in magnetic resonance imaging (MRI) today, with the potential to increase robustness, accessibility and patient comfort, reduce cost, and enable entirely new kinds of examinations. A key component in this endeavor is image reconstruction, as most modern approaches build on advanced signal and image processing. Here, deep learning (DL)-based methods have recently shown considerable potential, with numerous publications demonstrating benefits for MRI reconstruction. However, these methods often come at the cost of an increased risk for subtle yet critical errors. Therefore, the aim of this thesis is to advance DL-based MRI reconstruction, while ensuring high quality and fidelity with measured data. A network architecture specifically suited for this purpose is the variational network (VN). To investigate the benefits these can bring to non-Cartesian cardiac imaging, the first part presents an application of VNs, which were specifically adapted to the reconstruction of accelerated spiral acquisitions. The proposed method is compared to a segmented exam, a U-Net and a compressed sensing (CS) model using qualitative and quantitative measures. While the U-Net performed poorly, the VN as well as the CS reconstruction showed good output quality. In functional cardiac imaging, the proposed real-time method with VN reconstruction substantially accelerates examinations over the gold-standard, from over 10 to just 1 minute. Clinical parameters agreed on average. Generally in MRI reconstruction, the assessment of image quality is complex, in particular for modern non-linear methods. Therefore, advanced techniques for precise evaluation of quality were subsequently demonstrated. With two distinct methods, resolution and amplification or suppression of noise are quantified locally in each pixel of a reconstruction. Using these, local maps of resolution and noise in parallel imaging (GRAPPA), CS, U-Net and VN reconstructions were determined for MR images of the brain. In the tested images, GRAPPA delivers uniform and ideal resolution, but amplifies noise noticeably. The other methods adapt their behavior to image structure, where different levels of local blurring were observed at edges compared to homogeneous areas, and noise was suppressed except at edges. Overall, VNs were found to combine a number of advantageous properties, including a good trade-off between resolution and noise, fast reconstruction times, and high overall image quality and fidelity of the produced output. Therefore, this network architecture seems highly promising for MRI reconstruction. N2 - Eine Beschleunigung des Bildgebungsprozesses ist heute ein wichtiges Ziel von klinischer und technischer Forschung in der Magnetresonanztomographie (MRT). Dadurch könnten Robustheit, Verfügbarkeit und Patientenkomfort erhöht, Kosten gesenkt und ganz neue Arten von Untersuchungen möglich gemacht werden. Da sich die meisten modernen Ansätze hierfür auf eine fortgeschrittene Signal- und Bildverarbeitung stützen, ist die Bildrekonstruktion ein zentraler Baustein. In diesem Bereich haben Deep Learning (DL)-basierte Methoden in der jüngeren Vergangenheit bemerkenswertes Potenzial gezeigt und eine Vielzahl an Publikationen konnte deren Nutzen in der MRT-Rekonstruktion feststellen. Allerdings besteht dabei das Risiko von subtilen und doch kritischen Fehlern. Daher ist das Ziel dieser Arbeit, die DL-basierte MRT-Rekonstruktion weiterzuentwickeln, während gleichzeitig hohe Bildqualität und Treue der erzeugten Bilder mit den gemessenen Daten gewährleistet wird. Eine Netzwerkarchitektur, die dafür besonders geeignet ist, ist das Variational Network (VN). Um den Nutzen dieser Netzwerke für nicht-kartesische Herzbildgebung zu untersuchen, beschreibt der erste Teil dieser Arbeit eine Anwendung von VNs, welche spezifisch für die Rekonstruktion von beschleunigten Akquisitionen mit spiralen Auslesetrajektorien angepasst wurden. Die vorgeschlagene Methode wird mit einer segmentierten Rekonstruktion, einem U-Net, und einem Compressed Sensing (CS)-Modell anhand von qualitativen und quantitativen Metriken verglichen. Während das U-Net schlecht abschneidet, zeigen die VN- und CS-Methoden eine gute Bildqualität. In der funktionalen Herzbildgebung beschleunigt die vorgeschlagene Echtzeit-Methode mit VN-Rekonstruktion die Aufnahme gegenüber dem Goldstandard wesentlich, von etwa zehn zu nur einer Minute. Klinische Parameter stimmen im Mittel überein. Die Bewertung von Bildqualität in der MRT-Rekonstruktion ist im Allgemeinen komplex, vor allem für moderne, nichtlineare Methoden. Daher wurden anschließend forgeschrittene Techniken zur präsizen Analyse von Bildqualität demonstriert. Mit zwei separaten Methoden wurde einerseits die Auflösung und andererseits die Verstärkung oder Unterdrückung von Rauschen in jedem Pixel eines untersuchten Bildes lokal quantifiziert. Damit wurden lokale Karten von Auflösung und Rauschen in Rekonstruktionen durch Parallele Bildgebung (GRAPPA), CS, U-Net und VN für MR-Aufnahmen des Gehirns berechnet. In den untersuchten Bildern zeigte GRAPPA gleichmäßig eine ideale Auflösung, aber merkliche Rauschverstärkung. Die anderen Methoden verhalten sich lokal unterschiedlich je nach Struktur des untersuchten Bildes. Die gemessene lokale Unschärfe unterschied sich an den Kanten gegenüber homogenen Bildbereichen, und Rauschen wurde überall außer an Kanten unterdrückt. Insgesamt wurde für VNs eine Kombination von verschiedenen günstigen Eigenschaften festgestellt, unter anderem ein guter Kompromiss zwischen Auflösung und Rauschen, schnelle Laufzeit, und hohe Qualität und Datentreue der erzeugten Bilder. Daher erscheint diese Netzwerkarchitektur als ein äußerst vielversprechender Ansatz für MRT-Rekonstruktion. KW - Kernspintomografie KW - Convolutional Neural Network KW - Maschinelles Lernen KW - Bildgebendes Verfahren KW - magnetic resonance imaging KW - convolutional neural network KW - variational network KW - cardiac imaging KW - machine learning KW - local point-spread function KW - resolution KW - g-factor Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-347370 ER - TY - THES A1 - Meiser, Elisabeth T1 - Single-molecule dynamics at a bottleneck: a systematic study of the narrow escape problem in a disc T1 - Einzelmoleküldynamik an einem Engpass: Eine systematische Untersuchung des Narrow Escape Problems in einer Scheibe N2 - Diffusion facilitates numerous reactions within the biological context of a cell. It is remarkable how the cost-efficient random process of Brownian motion promotes fast reactions. From the narrow escape theory, it is possible to determine the mean first passage time of such processes based on their reaction space and diffusion coefficient. The narrow escape theory of Brownian particles is characterized by a confining domain with reflective boundaries and a small reaction site. In this thesis, the mean first passage time was systematically tested in a disc as a function of the escape opening size in vitro and in silico. For the in vitro experiments, a model system of patterned supported-lipid bilayers (SLB) was established. Such a model is prepared by a combined colloid metalization approach, where a gold scaffold on glass facilitates assembly of SLB patches of distinct sizes through vesicle fusion. The model setup was evaluated and found to match all necessary requirements to test the nar- row escape problem in vitro. In particular, the reflectivity of the boundaries, the unhindered, free diffusion of the tracer lipids, and the distinct area were assessed. Observed results of the mean first passage time agreed with the theory of the narrow escape problem. There was excellent agreement in both absolute values and across a range of small escape opening sizes. Additionally, I developed a straightforward method, a correction factor, to calculate the mean first passage time from incomplete experimental traces. By re-scaling the mean first passage time to the fraction of particles that escaped, I was able to overcome the lifetime limitations of fluorescent probes. Previously inaccessible measurements of the mean first passage time relying on fluorescent probes will be made possible through this approach. The in vitro experiments were complemented with various in silico experiments. The latter were based on random walk simulations in discs, mimicking the in vitro situation with its uncertainties. The lifetime of single particles was either set sufficiently long to allow all particles to escape, or was adjusted to meet the lifetime limitations observed in the in vitro experiments. A comparison of the mean first passage time from lifetime-unlimited particles to the corrected, lifetime-limited particles did support the use of the correction factor. In agreement with the narrow escape theory, it was experimentally found that the mean first passage time is independent of the start point of the particle within the domain. This is when the particle adheres to a minimum distance to the escape site. In general, the presented random walk simulations do accurately represent the in vitro experiments in this study. The required hardware for the establishment of an astigmatism-based 3D system was installed in the existing microscope. The first attempts to analyze the obtained 3D imaging data gave insight into the potential of the method to investigate molecule dynamics in living trypanosome cells. The full functionality will be realized with the ongoing improvement of image analysis outside of this thesis. N2 - Diffusion erleichtert zahlreiche Reaktionen im biologischen Kontext einer Zelle. Es ist bemerkenswert, wie der kosteneffiziente Zufallsprozess der Brownschen Bewegung schnelle Reaktionen fördert. Mit Hilfe der Narrow Escape Theorie kann die mittlere erste Durchgangszeit (mean first passage time) solcher Prozesse auf der Grundlage ihres Reaktionsraums und des Diffusionskoeffizienten bestimmt werden. Die Narrow Escape Theorie von Brownschen Teilchen wird durch einen begrenzten Bereich mit reflektierenden Grenzen und einen kleinen Reaktionsraum gekennzeichnet. In dieser Arbeit wurde die mittlere erste Durchgangszeit in einer Scheibe systematisch als Funktion der Größe der Fluchtöffnung in vitro und in silico untersucht. Fur die in vitro-Experimente wurde ein Modellsystem aus strukturierten, Glas gestützten Lipiddoppelschichten (SLB) erstellt. Dieses Modell wurde durch einen kombinierten Kolloid-Metallisierungsansatz hergestellt, bei dem eine strukturierte Goldschicht auf Glas die Bildung von SLB-Scheiben unterschiedlicher Größe durch die Vesikelfusion ermöglicht. Es wurde festgestellt, dass das Modell alle Anforderungen erfüllt, um das Narrow escape problem in vitro zu testen. Insbesondere wurde das Reflexionsvermögen der Grenzen, die ungehinderte, freie Diffusion der Lipide und die Präzision der Fläche bewertet. Die beobachteten Ergebnisse der mittleren ersten Durchgangszeit stimmen mit der NEP-Theorie ̈uberein. Es besteht eine hervorragende ̈Ubereinstimmung sowohl bei den absoluten Werten als auch systematisch ̈uber einen Bereich von kleinen Fluchtöffnungsgrößen. Außerdem zeige ich eine einfache Methode, einen Korrekturfaktor, zur Berechnung der mittleren ersten Durchgangszeit aus unvollstandigen Lipid Trajektorien des Experimentes. Indem ich die mittlere erste Durchgangszeit auf den Anteil der entkommenen Par- tikel skalierte, konnte ich die Einschränkungen der Lebensdauer von fluoreszenten Farbstoffen ausgleichen. Mit dieser Technik werden bisher unzugängliche Messungen der mittleren ersten Durchgangszeit auf der Grundlage von fluoreszenten Farbstoffen möglich. In einem umfassenden Ansatz wurden die in vitro-Experimente durch verschiedene in silico-Experimente ergänzt. Letztere basierten auf Random- Walk-Simulationen in Scheiben, die die in vitro-Situation mit ihren Unsicherheiten nachahmten. Die Lebensdauer einzelner Partikel wurde entweder so lang angesetzt, dass alle Partikel entkommen konnten, oder sie wurde so angepasst, dass sie den in den in vitro-Experimenten beobachteten Lebensdauerbeschränkungen entsprach. Ein Vergleich der mittleren ersten Durchgangszeit von unsterblichen Partikeln mit den korrigierten, lebensdauerbegrenzten Partikeln hat die Verwendung des Korrekturfaktors bestätigt. In ̈Ubereinstimmung mit der Narrow Escape Theorie wurde experimentell festgestellt, dass die mittlere erste Durchgangszeit unabhängig vom Startpunkt des Teilchens innerhalb der Domäne ist. Dies ist dann der Fall, wenn das Teilchen einen Mindestabstand zur Austrittsstelle einhält. Im Allgemeinen bilden die vorgestellten Random-Walk-Simulationen die in dieser Studie durchgeführten Experimente genau ab. Die erforderliche Hardware für die Einrichtung eines auf Astigmatismus basierenden 3D-Systems wurde in ein vorhandenes Mikroskop eingebaut. Erste Versuche, die gewonnenen 3D-Bilddaten zu analysieren, gaben einen Einblick in das Potenzial der Methode zur Untersuchung der Moleküldynamik im lebenden Trypanosom. Die volle Funktionalität wird mit der laufenden Verbesserung der Bildanalyse außerhalb dieser Arbeit realisiert werden. Ein Teil der Ergebnisse und Methoden dieser Dissertation wurde zur Veröffentlichung unter dem Titel ’Experiments in micro-patterned model membranes support the narrow escape theory’ eingereicht. KW - Freies Molekül KW - Kolloid KW - Bimolekulare Lipidschicht KW - Mikroskopie KW - Brownsche Bewegung KW - Narrow escape problem KW - mean first passage time KW - single-molecule localization microscopy KW - single particle tracking KW - Random-walk simulations Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-319650 ER -