Refine
Has Fulltext
- yes (17)
Is part of the Bibliography
- yes (17)
Year of publication
- 2015 (17) (remove)
Document Type
- Doctoral Thesis (17)
Language
- German (17) (remove)
Keywords
- Kernspintomografie (8)
- Lunge (3)
- Biophysik (2)
- C60 (2)
- Diindenoperylen (2)
- Exziton (2)
- Magnetische Kernresonanz (2)
- Organische Solarzelle (2)
- Photolumineszenz (2)
- Rastertunnelmikroskop (2)
Institute
- Physikalisches Institut (17) (remove)
Sonstige beteiligte Institutionen
Die bSSFP-Sequenz kombiniert kurze Akquisitionszeiten mit einem hohen Signal-zu-Rausch-Verhältnis, was sie zu einer vielversprechenden Bildgebungsmethode macht. Im klinischen Alltag ist diese Technik jedoch bisher - abgesehen von vereinzelten Anwendungen - kaum etabliert. Die Hauptgründe hierfür sind Signalauslöschungen in Form von Bandingartefakten sowie der erzielte T2/T1-gewichtete Mischkontrast. Das Ziel dieser Dissertation war die Entwicklung von Methoden zur Lösung der beiden genannten Limitationen, um so eine umfassendere Verwendung von bSSFP für die MR-Diagnostik zu ermöglichen.
Magnetfeldinhomogenitäten, die im Wesentlichen durch Suszeptibilitätsunterschiede oder Imperfektionen seitens der Scannerhardware hervorgerufen werden, äußern sich bei der bSSFP-Bildgebung in Form von Bandingartefakten. Mit DYPR-SSFP (DYnamically Phase-cycled Radial bSSFP) wurde ein Verfahren vorgestellt, um diese Signalauslöschungen effizient zu entfernen. Während für bereits existierende Methoden mehrere separate bSSFP-Bilder akquiriert und anschließend kombiniert werden müssen, ist für die Bandingentfernung mittels DYPR-SSFP lediglich die Aufnahme eines einzelnen Bildes notwendig. Dies wird durch die neuartige Kombination eines dynamischen Phasenzyklus mit einer radialen Trajektorie mit quasizufälligem Abtastschema ermöglicht. Die notwendigen Bestandteile können mit geringem Aufwand implementiert werden. Des Weiteren ist kein spezielles Rekonstruktionsschema notwendig, was die breite Anwendbarkeit des entwickelten Ansatzes ermöglicht. Konventionelle Methoden zur Entfernung von Bandingartefakten werden sowohl bezüglich ihrer Robustheit als auch bezüglich der notwendigen Messzeit übertroffen.
Um die Anwendbarkeit von DYPR-SSFP auch jenseits der gewöhnlichen Bildgebung zu demonstrieren, wurde die Methode mit der Fett-Wasser-Separation kombiniert. Basierend auf der Dixon-Technik konnten so hochaufgelöste Fett- sowie Wasserbilder erzeugt werden. Aufgrund der Bewegungsinsensitivät der zugrunde liegenden radialen Trajektorie konnten die Messungen unter freier Atmung durchgeführt werden, ohne dass nennenswerte Beeinträchtigungen der Bildqualität auftraten. Die erzielten Ergebnisse am Abdomen zeigten weder Fehlzuordnungen von Fett- und Wasserpixeln noch verbleibende Bandingartefakte.
Ein Nachteil der gewöhnlichen Dixon-basierten Fett-Wasser-Separation ist es, dass mehrere separate Bilder zu verschiedenen Echozeiten benötigt werden. Dies führt zu einer entsprechenden Verlängerung der zugehörigen Messzeit. Abhilfe schafft hier die Verwendung einer Multiecho-Sequenz. Wie gezeigt werden konnte, ermöglicht eine derartige Kombination die robuste, bandingfreie Fett-Wasser-Separation in klinisch akzeptablen Messzeiten.
DYPR-SSFP erlaubt die Entfernung von Bandingartefakten selbst bei starken Magnetfeldinhomogenitäten. Dennoch ist es möglich, dass Signalauslöschungen aufgrund des Effekts der Intravoxeldephasierung verbleiben. Dieses Problem tritt primär bei der Bildgebung von Implantaten oder am Ultrahochfeld auf. Als Abhilfe hierfür wurde die Kombination von DYPR-SSFP mit der sogenannten z-Shim-Technik untersucht, was die Entfernung dieser Artefakte auf Kosten einer erhöhten Messzeit ermöglichte.
Die mit DYPR-SSFP akquirierten radialen Projektionen weisen aufgrund des angewendeten dynamischen Phasenzyklus leicht verschiedene Signallevel und Phasen auf. Diese Tatsache zeigt sich durch inkohärente Bildartefakte, die sich jedoch durch eine Erhöhung der Projektionsanzahl effektiv reduzieren lassen. Folglich bietet es sich in diesem Kontext an, Anwendungen zu wählen, bei denen bereits intrinsisch eine verhältnismäßig hohe Anzahl von Projektionen benötigt wird. Hierbei hat sich gezeigt, dass neben der hochaufgelösten Bildgebung die Wahl einer 3D radialen Trajektorie eine aussichtsreiche Kombination darstellt. Die in der vorliegenden Arbeit vorgestellte 3D DYPR-SSFP-Technik erlaubte so die isotrope bandingfreie bSSFP-Bildgebung, wobei die Messzeit im Vergleich zu einer gewöhnlichen bSSFP-Akquisition konstant gehalten werden konnte. Verbleibende, durch den dynamischen Phasenzyklus hervorgerufene Artefakte konnten effektiv mit einem Rauschunterdrückungsalgorithmus reduziert werden. Anhand Probandenmessungen wurde gezeigt, dass 3D DYPR-SSFP einen aussichtsreichen Kandidaten für die Bildgebung von Hirnnerven sowie des Bewegungsapparats darstellt.
Während die DYPR-SSFP-Methode sowie die darauf beruhenden Weiterentwicklungen effiziente Lösungen für das Problem der Bandingartefakte bei der bSSFP-Bildgebung darstellen, adressiert die vorgestellte RA-TOSSI-Technik (RAdial T-One sensitive and insensitive Steady-State Imaging) das Problem des bSSFP-Mischkontrasts. Die Möglichkeit der Generierung von T2-Kontrasten basierend auf der bSSFP-Sequenz konnte bereits in vorausgehenden Arbeiten gezeigt werden. Hierbei wurde die Tatsache ausgenutzt, dass der T1-Anteil des Signalverlaufs nach Beginn einer bSSFP-Akquisition durch das Einfügen von Inversionspulsen in ungleichmäßigen Abständen aufgehoben werden kann. Ein so akquiriertes Bild weist folglich einen reinen, klinisch relevanten T2-Kontrast auf. Die im Rahmen dieser Arbeit vorgestellte Methode basiert auf dem gleichen Prinzip, jedoch wurde anstelle einer gewöhnlichen kartesischen Trajektorie eine radiale Trajektorie in Kombination mit einer KWIC-Filter-Rekonstruktion verwendet. Somit können bei gleichbleibender oder sogar verbesserter Bildqualität aus einem einzelnen, mit RA-TOSSI akquirierten Datensatz verschiedene T2-Wichtungen als auch gewöhnliche T2/T1-Wichtungen generiert werden. Mittels Variation der Anzahl der eingefügten Inversionspulse konnte ferner gezeigt werden, dass es neben den besagten Wichtungen möglich ist, zusätzliche Kontraste zu generieren, bei denen verschiedene Substanzen im Bild ausgelöscht sind. Diese Substanzen können am Beispiel der Gehirnbildgebung Fett, graue Masse, weiße Masse oder CSF umfassen und zeichnen sich neben den reinen T2-Kontrasten durch eine ähnlich hohe klinische Relevanz aus. Die mögliche Bedeutung der vorgestellten Methode für die klinische Verwendung wurde durch Messungen an einer Gehirntumorpatientin demonstriert.
Zusammenfassend lässt sich sagen, dass die im Rahmen dieser Dissertation entwickelten Techniken einen wertvollen Beitrag zur Lösung der eingangs beschriebenen Probleme der bSSFP-Bildgebung darstellen. Mit DYPR-SSFP akquirierte Bilder sind bereits mit bestehender, kommerzieller Rekonstruktionssoftware direkt am Scanner rekonstruierbar. Die Software für die Rekonstruktion von RA-TOSSI-Datensätzen wurde für Siemens Scanner implementiert. Folglich sind beide Methoden für klinische Studien einsetzbar, was gleichzeitig den Ausblick dieser Arbeit darstellt.
In oxidischen Heterostrukturen rufen Neuordnung von Ladung und Spin eine Vielzahl von unerwarteten physikalischen Eigenschaften hervor. Die Möglichkeit, Leitfähigkeit, Magnetismus oder auch Hochtemperatur-Supraleitung zu kontrollieren, machen diese künstlich hergestellten Materialien vor allem in Hinblick auf eine zukünftige Anwendung in der Mikroelektronik äußerst interessant. Dies erfordert jedoch ein grundsätzliches Verständnis für die zugrunde liegenden Mechanismen. Die vorliegende Doktorarbeit befasst sich mit photonengestützter Spektroskopie, die einen direkten Zugang zur elektronischen Struktur dieser Heterostruktursysteme ermöglicht. Ein weiteres Ziel ist es, geeignete spektroskopische Methoden zur Charakterisierung der vergrabenen Schichten zu etablieren.
Zwei prototypische oxidische Mehrschichtsysteme stehen im Zentrum der hier vorgestellten Untersuchungen. Das LaAlO3/SrTiO3-Heterostruktursystem weist ab einer kritischen LaAlO3-Filmdicke an der Grenzfläche ein zweidimensionales Elektronensystem mit hochmobilen Ladungsträgern auf. Als treibender Mechanismus wird die elektronische Rekonstruktion diskutiert. Im Rahmen dieser Arbeit wurde dieses zweidimensionale Elektronensystem mithilfe der Photoelektronenspektroskopie und der resonanten inelastischen Röntgenstreuung charakterisiert. Die daraus bestimmten Ladungsträgerdichten weisen im Vergleich mit Daten aus Transportmessungen auf eine Koexistenz von lokalisierten und mobilen Ladungsträgern an der Grenzfläche hin. Die Analyse von Rumpfniveau- und Valenzbandspektren zeigt, dass man zur Erklärung der experimentellen Resultate ein modifiziertes Bild der elektronischen Rekonstruktion benötigt, bei der Sauerstofffehlstellen an der LaAlO3-Oberfläche als Ladungsreservoir dienen könnten. Mithilfe der resonanten Photoelektronenspektroskopie war es möglich, die metallischen Zustände am chemischen Potential impulsaufgelöst zu spektroskopieren. So gelang es erstmals, die vergrabene Fermi-Fläche einer oxidischen Heterostruktur zu vermessen. Außerdem konnten Titan-artige Zustände identifiziert werden, die höchstwahrscheinlich durch Sauerstofffehlstellen im SrTiO3 lokalisiert sind. Diese werden als mögliche Quelle für den Ferromagnetismus interpretiert, der mit der supraleitenden Phase in der LaAlO3/SrTiO3-Heterostruktur koexistiert.
Bei dem anderen hier untersuchten Mehrschichtsystem handelt es sich um die LaNiO3-LaAlO3-Übergitterstruktur. Der Einbau des metallischen LaNiO3 in eine Heterostruktur ist aufgrund seiner Nähe zu einer korrelationsinduzierten isolierenden Phase hinsichtlich einer kontrollierten Ausbildung von neuartigen Phasen besonders interessant. In der Tat beobachtet man unterhalb einer LaNiO3-Schichtdicke von vier Einheitszellen einen kontinuierlichen Metall-Isolator-Übergang, der sich in den Valenzbandspektren durch einen Verlust an Quasiteilchenkohärenz äußert. Auch wenn die impulsaufgelösten
Daten am Fermi-Niveau durch Photoelektronenbeugung beeinflusst sind, so lässt sich dennoch eine Fermi-Fläche identifizieren. Ihre Topologie bietet die Möglichkeit eines Fermi-Flächen-Nestings mit der Ausbildung einer Spindichtewelle. Die Resultate unterstützen die Hinweise auf eine magnetische Ordnung im zweidimensionalen Grundzustand.
In der vorliegenden Arbeit wird die Rotated-Cone-UTE-Sequenz (RC-UTE), eine 3D k-Raum-Auslesetechnik mit homogener Verteilung der Abtastdichte, vorgestellt. Diese 3D MR-Messtechnik ermöglicht die für die Detektion von schnell abfallenden Signalen notwendigen kurzen Echozeiten und weist eine höhere SNR-Effizienz als konventionelle radiale Pulssequenzen auf. Die Abtastdichte ist dabei in radialer und azimutaler Richtung angepasst. Simulationen und Messungen in vivo zeigen, dass die radiale Anpassung das T2-Blurring reduziert und die SNR-Effizienz erhöht. Die Drehung der Trajektorie in azimutale Richtung ermöglicht die Reduzierung der Unterabtastung bei gleicher Messzeit bzw. eine Reduzierung der Messzeit ohne Auflösungsverlust.
Die RC-UTE-Sequenz wurde erfolgreich für die Bildgebung des Signals des kortikalen Knochens und der Lunge in vivo angewendet. Im Vergleich mit der grundlegenden UTE-Sequenz wurden die Vorteile von RC-UTE in allen Anwendungsbeispielen aufgezeigt. Die transversalen Relaxationszeit T2* des kortikalen Knochen bei einer Feldstärke von 3.0T und der Lunge bei 1.5T und 3.0T wurde in 3D isotroper Auflösung gemessen. Außerdem wurde die Kombination von RC-UTE-Sequenz mit Methoden der Magnetisierungspräparation zur besseren Kontrasterzeugung gezeigt. Dabei wurden die Doppel-Echo-Methode, die Unterdrückung von Komponenten mit langer Relaxationszeit T2 durch Inversionspulse und der Magnetisierungstransfer-Kontrast angewendet.
Die Verwendung der RC-UTE-Sequenz für die 3D funktionelle Lungenbildgebung wird ebenfalls vorgestellt. Mit dem Ziel der umfassenden Charakterisierung der Lungenfunktion in 3D wurde die simultane Messung T1-gewichteter Bilder und quantitativer T2*-Karten für verschiedene Atemzustände an sechs Probanden durchgeführt. Mit der hier vorgestellten Methode kann die Lungenfunktion in 3D über T1-Wichtung, quantitative T2*-Messung und Rekonstruktion verschiedener Atemzustände durch Darstellung von Ventilation, Sauerstofftransport und Volumenänderung beurteilt werden.
Kohärenz- und Magnetfeldmessungen an Polariton-Kondensaten unterschiedlicher räumlicher Dimensionen
(2015)
Die Bose-Einstein-Kondensation (BEK) und die damit verbundenen Effekte wie Superfluidität und Supraleitung sind faszinierende Resultate der Quantennatur von Bosonen. Nachdem die Bose-Einstein-Kondensation für Atom-Systeme nur bei Temperaturen nahe dem absoluten Nullpunkt realisierbar ist, was einen enormen technologischen Aufwand benötigt, wurden Bosonen mit wesentlich kleineren Massen zur Untersuchung der BEK gesucht. Hierfür bieten sich Quasiteilchen in Festkörpern wie Magnonen oder Exzitonen an, da deren effektive Massen sehr klein sind und die Kondensationstemperatur dementsprechend höher ist als für ein atomares System. Ein weiteres Quasiteilchen ist das Exziton-Polariton als Resultat der starken Licht-Materie-Wechselwirkung in Halbleitermikrokavitäten, welches sowohl Materie- als auch Photoneigenschaften hat und dessen Masse theoretisch eine BEK bis Raumtemperatur erlaubt. Ein weiterer Vorteil dieses System ist die einfache Erzeugung des Bose-Einstein-Kondensats in diesen Systemen durch elektrisches oder optisches Injizieren von Exzitonen in die Halbleiter-Quantenfilme der Struktur. Außerdem kann die Impulsraumverteilung dieser Quasiteilchen leicht durch einfache experimentelle Methoden mittels eines Fourierraumspektroskopie-Aufbaus bestimmt werden. Durch die winkelabhängige Messung der Emission kann direkt auf die Impulsverteilung der Exziton-Polaritonen in der Quantenfilmebene zurückgerechnet werden, die zur Identifikation der BEK hilfreich ist. Deshalb wird das Exziton-Polariton als ein Modellsystem für die Untersuchung von Bose-Einstein-Kondensation in Festkörpern und den damit in Relation stehenden Effekten angesehen. In dieser Arbeit wird die Grundzustandskondensation von Exziton-Polaritonen in Halbleitermikrokavitäten verschiedener Dimensionen realisiert und deren Emissionseigenschaften untersucht. Dabei wird vor allem die Wechselwirkung des Polariton-Kondensats mit der der unkondensierten Polaritonen bzw. der Quantenfilm-Exzitonen im externen Magnetfeld verglichen und ein Nachweis zum Erhalt der starken Kopplung über die Polariton-Kondensationsschwelle hinaus entwickelt. Außerdem werden die Kohärenzeigenschaften von null- und eindimensionalen Polariton-Kondensaten durch Bestimmung der Korrelationsfunktion erster beziehungsweise zweiter Ordnung analysiert. Als Materialsystem werden hierbei die III/V-Halbleiter gewählt und die Quantenfilme bestehen bei allen Messungen aus GaAs, die von einer AlAs Kavität umgeben sind.
Eindimensionale Polariton-Kondensation - räumliche Kohärenz der Polariton-Drähte
Im ersten experimentellen Teil dieser Arbeit (Kapitel 1) wird die Kondensation der Polaritonen in eindimensionalen Drähten unter nicht-resonanter optischer Anregung untersucht. Dabei werden verschiedene Drahtlängen und -breiten verwendet, um den Einfluss des zusätzlichen Einschlusses auf die Polariton-Dispersion bestimmen zu können. Ziel dieser Arbeit ist es, ein eindimensionales Bose-Einstein-Kondensat mit einer konstanten räumlichen Kohärenz nach dem zentralen Abfall der g^(1)(r)-Funktion für große Abstände r in diesen Drähten zu realisieren (sogenannte langreichweitige Ordnung im System, ODLRO (Abkürzung aus dem Englischen off-diagonal long-range order).
Durch Analyse der Fernfeldemissionseigenschaften können mehrere Polariton-Äste, der eindimensionale Charakter und die Polariton-Kondensation in 1D-Systemen nachgewiesen werden. Daraufhin wird die räumliche Kohärenzfunktion g^(1)(r) mithilfe eines hochpräzisen Michelson-Interferometer, das im Rahmen dieser Arbeit aufgebaut wurde, bestimmt. Die g^(1)(r)-Funktion nimmt hierbei über große Abstände im Vergleich zur thermischen De-Broglie-Wellenlänge einen konstanten Plateauwert an, der abhängig von der Anregungsleistung ist. Unterhalb der Polariton-Kondensationsschwelle (Schwellleistung P_S) ist kein Plateau sichtbar und die räumliche Kohärenz ist nur im zentralen Bereich von unter |r| < 1 µm vorhanden. Mit ansteigender Anregungsleistung nimmt das zentrale Maximum in der Weite zu und es bildet sich das Plateau der g^(1)(r)-Funktion aus, das nur außerhalb des Drahtes auf Null abfällt. Bei P=1,6P_S ist das Plateau maximal und beträgt circa 0,15. Außerdem kann nachgewiesen werden, dass mit steigender Temperatur die Plateauhöhe abnimmt und schließlich bei T=25K nicht mehr gemessen werden kann. Hierbei ist dann nur noch das zentrale Maximum der Kohärenzfunktion g^(1)(r) sichtbar. Weiterhin werden die Ergebnisse mit einer modernen mikroskopischen Theorie, die auf einem stochastischen Mastergleichungssystem basiert, verglichen, wodurch die experimentellen Daten reproduziert werden können. Im letzten Teil des Kapitels wird noch die Kohärenzfunktion g^(1)(r) im 1D-Fall mit der eines planaren Polariton-Kondensats verglichen (2D).
Nulldimensionale Polariton-Kondensation - Kondensation und Magnetfeldwechselwirkung in einer Hybridkavität
Im zweiten Teil der Arbeit wird die Polariton-Kondensation in einer neuartigen Hybridkavität untersucht. Der Aufbau des unteren Spiegels und der Kavität inklusive der 12 verwendeten Quantenfilme ist analog zu den gewöhnlichen Mikrokavitäten auf Halbleiterbasis. Der obere Spiegel jedoch besteht aus einer Kombination von einem DBR (Abkürzung aus dem Englischen distributed Bragg reflector) und einem Brechungsindexkontrast-Gitter mit einem Luft-Halbleiterübergang (größt möglichster Brechungsindexkontrast). Durch die quadratische Strukturgröße des Gitters (Seitenlänge 5µm) sind die Polaritonen zusätzlich zur Wachstumsrichtung noch in der Quantenfilmebene eingesperrt, so dass sie als nulldimensional angesehen werden können (Einschluss auf der ungefähren Größe der thermischen De-Broglie-Wellenlänge). Um den Erhalt der starken Kopplung über die Kondensationsschwelle hinaus nachweisen zu können, wird ein Magnetfeld in Wachstumsrichtung angelegt und die diamagnetische Verschiebung des Quantenfilms mit der des 0D-Polariton-Kondensats verglichen. Hierdurch kann das Polariton-Kondensat von dem konventionellen Photonlasing in solchen Strukturen unterschieden werden. Weiterhin wird als letztes Unterscheidungsmerkmal zwischen Photonlasing und Polariton-Kondensation eine Messung der Autokorrelationsfunktion zweiter Ordnung g^(2)(t) durchgeführt. Dabei kann ein Wiederanstieg des g^(2)(t = 0)-Werts mit ansteigender Anregungsleistung nachgewiesen werden, nachdem an der Kondensationsschwelle der g^(2)(t = 0)-Wert auf 1 abgefallen ist, was auf eine zeitliche Kohärenzzunahme im System hinweist. Oberhalb der Polariton-Kondensationsschwelle P_S steigt der g^(2)(t = 0)-Wert wieder aufgrund zunehmender Dekohärenzprozesse, verursacht durch die im System ansteigende Polariton-Polariton-Wechselwirkung, auf Werte größer als 1 an. Für einen gewöhnlichen Photon-Laser (VCSEL, Abkürzung aus dem Englischen vertical-cavity surface-emitting laser) im monomodigen Betrieb kann mit steigender Anregungsleistung kein Wiederanstieg des g^(2)(t = 0)-Werts gemessen werden. Somit stellt dies ein weiteres Unterscheidungsmerkmal zwischen Polariton-Kondensation und Photonlasing dar.
Zweidimensionale Polariton-Kondensation - Wechselwirkung mit externem Magnetfeld
Im letzten experimentellen Kapitel dieser Arbeit wird die Magnetfeldwechselwirkung der drei möglichen Regime der Mikrokavitätsemission einer planaren Struktur (zweidimensional) untersucht. Dazu werden zuerst durch eine Leistungsserie bei einer Verstimmung des Photons und des Quantenfilm-Exzitons von d =-6,5meV das lineare, polaritonische Regime, das Polariton-Kondensat und bei weiterer Erhöhung der Anregungsleistung das Photonlasing identifiziert. Diese drei unterschiedlichen Regime werden daraufhin im Magnetfeld von B=0T-5T auf ihre Zeeman-Aufspaltung und ihre diamagnetische Verschiebung untersucht und die Ergebnisse der Magnetfeldwechselwirkung werden anschließend miteinander verglichen. Im linearen Regime kann die Abhängigkeit der Zeeman-Aufspaltung und der diamagnetischen Verschiebung vom exzitonischen Anteils des Polaritons bestätigt werden. Oberhalb der Polariton-Kondensationsschwelle wird eine größere diamagnetische Verschiebung gemessen als für die gleiche Verstimmung im linearen Regime. Dieses Verhalten wird durch Abschirmungseffekte der Coulomb-Anziehung von Elektronen und Löchern erklärt, was in einer Erhöhung des Bohrradius der Exzitonen resultiert. Auch die Zeeman-Aufspaltung oberhalb der Polariton-Kondensationsschwelle zeigt ein vom unkondensierten Polariton abweichendes Verhalten, es kommt sogar zu einer Vorzeichenumkehr der Aufspaltung im Magnetfeld. Aufgrund der langen Spin-Relaxationszeiten von 300ps wird eine Theorie basierend auf der im thermischen Gleichgewichtsfall entwickelt, die nur ein partielles anstatt eines vollständigen thermischen Gleichgewicht annimmt. So befinden sich die einzelnen Spin-Komponenten im Gleichgewicht, während zwischen den beiden Spin-Komponenten kein Gleichgewicht vorhanden ist. Dadurch kann die Vorzeichenumkehr als ein Zusammenspiel einer dichteabhängigen Blauverschiebung jeder einzelner Spin-Komponente und der Orientierung der Spins im Magnetfeld angesehen werden. Für das Photonlasing kann keine Magnetfeldwechselwirkung festgestellt werden, wodurch verdeutlicht wird, dass die Messung der Zeeman-Aufspaltung beziehungsweise der diamagnetischen Verschiebung im Magnetfeld als ein eindeutiges Werkzeug zur Unterscheidung zwischen Polariton-Kondensation und Photonlasing verwendet werden kann.
Die zahnmedizinische Behandlung von Erkrankungen der Zähne oder im Bereich der Mundhöhle erfolgt bei Weitem nicht immer aus optischen Gründen. Diese Erkrankungen werden auch mit ernsthaften Erkrankungen in Zusammenhang gebracht. Studien haben gezeigt, dass einige Erkrankungen im Mund- und Zahnbereich zu Herz- und Lungenkrankheiten oder Diabetes führen können. Oftmals erstreckt sich die Pathologie oder Symptomatik von Mund- und Zahnerkrankungen über einen weiten Bereich. In der zahnmedizinischen Klinik kommen daher viele verschiedene diagnostische Apparate zum Einsatz. Allerdings zählt die Magnetresonanztomographie, die sich in anderen Bereichen bereits zum wichtigsten bildgebenden Diagnosetool entwickelt hat, dort noch nicht zu den Standardverfahren. Dabei liegen ihre Vorteile auf der Hand: sie ist bekannt für sehr gute Bildkontraste vor allem zwischen verschiedenen Weichgewebsarten und kommt ohne gefährliche ionisierende Strahlung aus. Wahrscheinlich ist ersteres der Grund, warum die MRT in der Zahnmedizin noch nicht sonderlich vertreten ist, kommt es dort oft auf die kontrastreiche Darstellung von Hartgeweben an. Neueste Entwicklungen und Studien belegen jedoch die vielseitigen Vorteile der MRT auch in diesem Bereich. Ziel dieser Arbeit von der applikativen Seite betrachtet, war es, das enorme Potential der MRT in den vielseitigen Bereichen der Zahnmedizin weiterhin aufzuzeigen. Viele dieser Anwendungen stellen jedoch sehr hohe Anforderungen an die Systeme. Meist sind die darzustellenden Strukturen sehr klein und erfordern eine hohe Auflösung. Während man beim Röntgenverfahren beispielsweise die Energie des Strahles (Dosis) steigern kann, bedeutet dies in der MRT (ohne das Gerät zu wechseln) eine Verlängerung der Messzeit. Gerade im Bereich des Kopfes kommt es oft zu ungewollten Bewegungen, die das Ergebnis und die Reproduzierbarkeit der gewonnenen diagnostischen Informationen verschlechtern oder gänzlich unbrauchbar machen. Die grösste Herausforderung dabei ist die dreidimensionale Abformung von Zahnoberflächen in der Prothetik. Dieses Verfahren kann eine aufwändige und unangenehme manuelle Abformung der Zähne und die Herstellung eines Zwischengipsmodells ersetzen und ein direktes dreidimensionales Modell der Zahnoberflächen produzieren. Durch die moderne CAD-/CAM-Technik kann daraus vom Zahntechniker direkt eine Zahnrestauration erstellt werden. Daher war ein wichtiger Bestandteil des Projekts dentale MRT die Entwicklung einer Methode zur Erkennung und gleichzeitiger Korrektur von Bewegungen.
Verschiedenste Anforderungen waren an die Methode gestellt. Zum einen muss die Methode bereits Bewegungen im Bereich von ~100 µm erkennen, um die Anforderungen an die finale Bildauflösung zu unterschreiten. Bei der dentalen Abformung wird eine 1-Kanal-Empfängerspule verwendet und je nach Messung kann der Patient dabei auf dem Bauch oder Rücken liegen. Weiterhin muss die Bewegungserkennung ohne zusätzliche externe Geräte wie Kameras, deren Sicht z.B. durch den Patienten verdeckt ist, durchführbar sein.
Die vorliegende Arbeit deckt also zwei größere Themenblöcke ab. Zum einen wurden in der Arbeit neue Applikationen entwickelt oder weiterentwickelt, um verschiedenen Bereichen der Zahnmedizin den Zugang zu MRTUntersuchungen zu eröffnen. Kapitel 4 beschreibt die Möglichkeit, die Bewegung des Kiefergelenks dynamisch zu erfassen. Es stellte sich in der Arbeit heraus, dass sowohl die Bewegung von Weichgewebeanteilen darstellbar waren, als auch der intraartikuläre Abstand im Kiefergelenk unter Kaubelastung in Echtzeit vermessen werden konnte. Dabei wurde die Bildgebungssequenz und der zugehörige Rekonstruktionsalgorithmus so entwickelt, dass die Daten flexibel und ohne Vorwissen akquiriert und aufbereitet werden können. Hierbei konnten verschiedenen Pathologien anhand der dynamischen Bilder sichtbar gemacht werden und die dynamische MRT konnte Erkrankungen erkennen, die mit anderen Mitteln nicht sichtbar waren. Die vielen diagnostischen Möglichkeiten, die dadurch entstehen sind bisher noch nicht untersucht und sollten durch großangelegte Studien untersucht und belegt werden.
Kapitel 5 beschreibt die Ergebnisse einer großangelegten Studie im Bereich der dentomaxillären Bildgebung . Die diagnostischen Möglichkeiten der MRT für die kieferorthopädische Anwendung liegen klar auf der Hand. Die typischen Patienten in der Kieferorthopädie sind Kinder und Jugendliche. Die Abwesenheit von gewebsschädigender Strahlung ist hier ein besonderer Vorteil der MRT. Eine Messung dauert zudem nach diversen Weiterentwicklungen der Methode nur noch 2 (bzw. 4) Minuten. Die Auflösung in den gerenderten Bildern beträgt 0.25x0.25x0.5 mm. Mit der Methode konnte unter anderem die Geminisierung einer Zahnwurzel und der Abstand des Zahnmarks zur Zahnoberfläche (Zahnschmelz) dargestellt und vermessen werden.
Kapitel 6 stellt Neuentwicklungen im Bereich der dentalen Abformung von Zahnoberflächen dar. Hier wurde eine neue Methode entwickelt um den Patientenkomfort bei der Messung zu steigern und so Bewegungen im Vorhinein zu unterbinden. Bei der alten Methode liegt der Patient auf dem Bauch und ein großer Teil der Mundhöhle ist mit Kontrastmittel befüllt. Durch die Verwendung einer präparierten Tiefziehschiene kann das Kontrastmittel nun lokal appliziert
werden und eine Messung in Rückenlage das Patienten ist somit problemlos möglich. Die damit verbundene Reproduzierbarkeit der Abformungsergebnisse wäre durch eine großangelegte Studie zu zeigen. Die Hauptaufgabe der vorliegenden Dissertation war es, eine Methode zur Bewegungskorrektur zu entwickeln, die es ohne eine große Anzahl an Zusatzgeräten ermöglicht, die Bewegung eines Subjekts während der Messung zu erfassen und dementsprechend zu korrigieren. Diese neue Methode, gestützt auf einer Messung eines MRT-aktiven Markers der am Subjekt angebracht wird, beruht außer der Verwendung des Markers nur auf MRT-Hardware. Die Methode wird in Kapitel 8 vorgestellt. Da es sich bei der Methode um eine Neuentwicklung handelt, war es in erster Linie wichtig, die Einflüsse der verschiedenen Parameter, die sich auf die Positionierungsgenauigkeit auswirken, abzuschätzen und letzten Endes festzulegen. Dies wurde in mehreren Vorstudien, Experimenten und Computersimulationen abgehandelt. In der Arbeit konnte durch Validierungsexperimente gezeigt werden dass sich mit dem bildbasierten Navigator Bewegungen im Genauigkeitsbereich von ~50 µm (Translation) und ~0.13◦(Rotation) detektieren lassen. Mit den Positionsinformationen lassen sich MRT-Daten retrospektiv korrigieren oder idealerweise das Bildgebungsvolumen in Echtzeit anpassen um Inkonsistenzen in den Daten im Vorhinein vorzubeugen. Durch Bewegung beeinträchtigte in-vivo Daten konnten so mit der Methode korrigiert werden und anhand eines geeigneten Phantoms konnte die Verbesserung der Erkennung von Kanten, wie sie beispielsweise bei der dentalen Abformung angewandt wird, gezeigt werden. Die kontinuierlichen Entwicklungen in den Bereichen Hard-, Software und Algorithmik ermöglichen weitere hochauflösende Anwendungen. In Kapitel 9 sind die Ergebnisse einer Studie gezeigt, die sich mit der Analyse der Handbewegungen während einer Messung beschäftigt. Für eine hochauflösenden Darstellung der Handanatomie bei 7 T ist eine Unterbindung der Handbewegung sehr wichtig. Um ein geeignetes Design für eine Empfängerspule zu entwerfen, die Bewegungen der Hand unterbindet, wurde eine qualitative Bewegungsanalyse der Hand in mehreren verschiedenen Positionen durchgeführt. Durch Vergleich der Ergebnisse konnte so auf geeignete Designs zurückgeschlossen werden.
Das Ziel der Promotion war die Entwicklung eines Flusssensors mit dem Fokus auf Flussmessungen an Pflanzen. Dazu musste zunächst die Hardware in Form eines räumlich zugänglichen Magneten und einer Sende- und Empfangseinheit entworfen werden. Um die MR-Konsole ansteuern zu können, musste eine Software entwickelt werden. Die AC-Methode wurde für Flussmessungen mit niedrigen Geschwindigkeiten angepasst und die entsprechende Theorie dazu erweitert. Mit dieser weiterentwickelten AC-Methode wurde die Flussmessung an Pflanzen demonstriert. Dafür wurden im Rahmen einer Kooperation mit der Arbeitsgruppe „Lipid Motobolism“ der IPK-Gatersleben Flussstudien an Weizenpflanzen durchgeführt. Darüber hinaus wurde in dieser Arbeit eine neue Technik zur Wirbelstromvermeidung bei Permanentmagneten entwickelt, um Problemen mit diesen bei Flussmessungen entgegenzuwirken.
Sensorbau
Es wurde ein zugänglicher, mobiler Magnet mit einer Feldstärke von 0,42 T gebaut. Die Feldhomogenität beträgt 0,5 ppm in 1 cm³. Im Vergleich zu dem am Lehrstuhl der EP5 bestehenden, geschlossenen, mobilen Magnetsystem erreicht das in dieser Arbeit gebaute System ein 40fach homogeneres Magnetfeld. Erzielt wurden diese Verbesserungen durch ein spezielles Design, welches durch Computersimulationen sukzessiv optimiert wurde. Durch angepasste Polschuhe konnte darüber hinaus die Induktion von Wirbelströmen im Mittel um einen Faktor 7 reduziert werden, wodurch phasensensitive Flussmessungen ermöglicht wurden.
Um die Zugänglichkeit zu dem Innenraum der HF-Spulen zu gewährleisten, wurde eine Klappspule weiterentwickelt und als Sende- und Empfangseinheit für den Tomographen gebaut. Ferner wurde ein System gebaut, dass direkt um die Pflanze gewickelt werden kann und sich somit für besonders dünne Pflanzenstängel eignet.
Weiterhin wurden zwei Systeme zur Rauschunterdrückung für die Messungen an Pflanzen entwickelt. Dadurch konnte das Rauschen um einen Faktor 92 gesenkt werden. Dies war notwendig, weil die länglichen Pflanzen durch ihre Ausdehnung über das Gehäuse hinweg ein Rauschen in die Empfangsspule induziert haben. Die beiden Rauschunterdrückungssysteme, die elektrische Schirmung und die Gleichtaktunterdrückung, entfernten das Rauschen dabei gleichermaßen.
Flussmessung
Die im Rahmen der Arbeit erfolgte Weiterentwicklung der AC-Methode [102] erlaubte es erstmals mit der Methode quantitative Flussprofile aufzunehmen. In Folge dessen war es
außerdem möglich Geschwindigkeiten unter 200 µm/s zu messen. Die Vorrausetzung dafür war die Implementierung von trapezförmigen Gradienten, welche kürzere Rampzeiten und eine stärkere Kodierung zulassen. Dadurch sind außerdem Intervalle ohne Gradienten realisierbar, die effizientere Refokussierungspulse und die Aufnahme mehrerer Datenpunkte ermöglichen. Die zu erwartenden und simulierten Flussprofile entsprachen den gemessenen Profilen durch die Verwendung einer neuen Auswertungstechnik.
Die neu entwickelte Erweiterung zur Bildgebung ermöglicht die ortsaufgelöste, spektroskopische Flussmessung und so können die Bereiche von Xylem und Phloem voneinander getrennt werden. Dies wurde durch Messungen einer Schwarzerle gezeigt, bei der die im Abschnitt 5.1 beschriebene Struktur dikotyler Pflanzen aufgelöst werden konnte. Zusätzlich können qualitativ genauere Aussagen über die Flussgeschwindigkeit getroffen werden.
Bei Messungen an Pflanzen konnte mit der optimierten AC-Methode die Flussänderungen aufgrund äußerer Einflüsse, wie der Beleuchtung, beobachtet werden. Langzeitmessungen über 9 Tage zeigten einen der Beleuchtung folgenden Flussverlauf - auch bei sehr geringen mittleren Flussänderungen von unter 200 µm/s.
Bloch-Siegert Phasenkodierung
Um eine Phasenkodierung ohne die Induktion von Wirbelströmen zu erhalten, wurde im Rahmen der Arbeit die ortsabhängige Phasenkodierung mittels B1-Gradienten entwickelt. Diese Technik basiert auf HF-Wechselfeldern und benutzt den sogenannten BS-Shift um einen B1-feldabhängigen Frequenzshift zu induzieren. Zwei Rekonstruktionstechniken wurden entwickelt, um die Rekonstruktion von entzerrten Bildern zu ermöglichen. Dies war notwendig, da die Kodierung mittels BS-Shift von B1² abhängt. Infolgedessen wird bei der Verwendung von konstanten HF-Gradienten eine vom Quadrat des Ortes abhängige Phasenkodierung induziert. Als Alternative zu diesem Verfahren wurde ein Gradient entwickelt, der einen wurzelförmigen Feldverlauf hat und somit die lineare Kodierung ohne angepasste Rekonstruktionstechniken ermöglicht.
3d-Übergangsmetallphthalocyanin-Moleküle auf Metalloberflächen: Der Einfluss der d-Orbitalbesetzung
(2015)
Im Rahmen dieser Dissertation wird die Untersuchung von 3d-Übergangsmetallphthalocyanin- Molekülen (ÜMPc) – quadratisch-planaren organischen Molekülen, welche im Zentrum ein 3d-Übergangsmetallion besitzen – auf metallischen Oberflächen vorgestellt. Der Fokus dieser Arbeit liegt dabei auf dem Einfluss der d-Orbitalbesetzung auf die magnetischen, elektronischen und strukturellen Eigenschaften der adsorbierten Moleküle, die mit Hilfe der Rastertunnelmikroskopie und -spektroskopie charakterisiert wurden. Die gewonnen Ergebnisse werden zum Teil mit theoretischen Berechnungen analysiert und interpretiert.
Die erste Hälfte der experimentellen Auswertung behandelt die Untersuchung dieser Moleküle auf Ag(001) in Hinblick auf die Existenz einer magnetischen Wechselwirkung, bei der ein unkompensiertes magnetisches Moment des Moleküls durch die Substratelektronen abgeschirmt wird. Dieser Effekt wird als Kondo-Abschirmung bezeichnet und erzeugt in der Zustandsdichte des Moleküls eine Resonanz am Fermi-Niveau. Die Messungen zeigen, dass diese Resonanz ausschließlich am Zentralion von MnPc vorgefunden wird, wohingegen sie bei allen anderen 3d-Übergangsmetallphthalocyanin-Molekülen, die eine höhere d-Orbitalbesetzung besitzen, nicht vorhanden ist. Anhand theoretischer Berechnungen kann die Ursache für dieses Verhalten darauf zurückgeführt werden, dass von allen d-Orbitalen einzig das dz2-Orbital mit dem Substrat geeignet hybridisiert, um eine Kondo-Abschirmung zu erzeugen. Da ausschließlich MnPc einen unkompensierten Spin in diesem Orbital besitzt, kann die An- bzw. Abwesenheit
des Kondo-Effekts auf die unterschiedliche Besetzung des dz2-Orbitals zurückgeführt werden. Neben der eben erwähnten Kondo-Resonanz ist bei MnPc ein weiteres Merkmal am Fermi- Niveau überlagert. Durch die Analyse der räumlichen Verteilung, den Vergleich mit anderen Molekülen und der Manipulation des MnPc-Moleküls kann gezeigt werden, dass es sich bei diesem Merkmal um einen d-Orbitalzustand handelt. Die Manipulation des Moleküls durch gezieltes Entfernen von Wasserstoffatomen ermöglicht darüber hinaus die Stärke der Kondo-Abschirmung zu beeinflussen.
In der zweiten Hälfte der experimentellen Auswertung werden Moleküle auf bismutinduzierten Oberflächenlegierungen der Edelmetalle Cu(111) und Ag(111) untersucht. Diese Legierungen zeichnen sich durch einen ausgeprägten Rashba-Effekt aus, der durch eine Aufspaltung der Parabeldispersion und Aufhebung der Spin-Entartung im zweidimensionalen Elektronengas der Oberflächenlegierung charakterisiert ist. Das Wachstumsverhalten von CuPc und MnPc auf diesen Oberflächen zeigt ein sehr gegensätzliches Verhalten. Während bei MnPc die Substrat-Molekül-Wechselwirkung dominant ist, wodurch diese Moleküle immer einen festen Adsorptionsplatz auf der Oberfläche besitzen, ist diese Wechselwirkung bei CuPc schwach ausgeprägt. Aus diesem Grund wandern die CuPc-Moleküle zu den Stufenkanten und bilden Cluster. Das unterschiedliche Wachstumsverhalten der Moleküle lässt sich auf die partiell-gefüllten d-Orbitale von MnPc zurückführen, die aus der Molekülebene ragen, mit dem Substrat hybridisieren und damit das Molekül an das Substrat binden. Bei CuPc hingegen sind diese d-Orbitale gefüllt und die Hybridisierung kann nicht stattfinden.
Im letzten Abschnitt werden die elektronischen und magnetischen Eigenschaften von MnPc auf diesen Substraten behandelt, die einige Besonderheiten aufweisen. So bildet sich durch die Adsorption des Moleküls auf den Oberflächen eine Grenzschichtresonanz aus, die eine partielle Füllung erkennen lässt. Spektroskopiedaten, aufgenommen am Ort der Grenzschichtresonanz, weisen eine symmetrisch um das Fermi-Niveau aufgespaltene Resonanz auf. Die Intensität der unter- und oberhalb der Fermi-Energie befindlichen Resonanz zeigen dabei ein komplementäres Verhalten bzgl. der jeweiligen Lage auf der Grenzschichtresonanz: An den Orten, an denen die Resonanz unterhalb des Fermi-Niveaus ihre maximale Intensität besitzt, ist die Resonanz oberhalb des Fermi-Niveaus nicht vorhanden und umgekehrt. Diese experimentellen Beobachtungen werden mit einem Modellansatz erklärt, welcher die Wirkung eines effektiven Magnetfeldes und eine Spin-Filterung postuliert.
Im Rahmen der vorliegenden Arbeit werden mit einem Rastertunnelmikroskop (RTM) Ladungsdichtemodulationen
(LDM) auf Oberflächen von drei verschiedenen Probensystemen
untersucht. Bei den Proben handelt es sich um Chrom auf Wolfram(110), Iridiumditellurid
(IrTe2) als Volumenmaterial und Eisen auf Rhodium(001). Es werden sowohl die Temperaturabhängigkeit
der Phasenübergänge als auch die Wechselwirkung zwischen magnetischen
und elektronischen Eigenschaften analysiert.
Chrom (Cr) ist ein einfaches Übergangsmetall, in dem sowohl eine klassische Ladungsdichtewelle
(LDW) als auch eine Spindichtewelle (SDW) auftreten. Die im Experiment
betrachteten Cr-Inseln auf Wolfram(110) schlagen eine Brücke zwischen dem Volumenmaterial
und ultradünnen Schichten. Dabei zeigt sich der Zusammenhang zwischen elektronischen
und magnetischen Eigenschaften in der Ausbildung einer LDW-Lücke und dem
gleichzeitigen Verschwinden des magnetischen Kontrastes bei lokalen Schichtdicken von
dCr = 4nm. Dies kann durch eine Rotation des Spindichtewellenvektors Q erklärt werden.
Für dCr < 3nm verschwindet die LDW erneut. Zusätzlich zur LDW und SDW
entsteht aufgrund der unterschiedlichen Gitterparameter von Chrom und Wolfram bei
lokalen Schichtdicken von dCr < 3nm eine Moiré-Überstruktur.
IrTe2 ist Gegenstand zahlreicher aktueller Forschungsaktivitäten und weist eine LDM mit
gleichzeitiger Transformation des atomaren Gitters auf. Ein Phasenübergang erster Ordnung
erzeugt zunächst bei der Übergangstemperatur TC = 275K eine Modulation mit
dem Wellenvektor q = 1/5(1, 1, 0). Mithilfe temperaturabhängiger RTM-Messungen kann
das Phasendiagramm um einen weiteren Übergang erster Ordnung bei TS = 180K erweitert
werden. Dabei bilden sich zunehmend Te-Dimere an der sichtbaren (001)-Oberfläche
und IrTe2 wechselt in einen Grundzustand mit maximaler Dichte von Dimeren und dem
Wellenvektor q = 1/6(1, 1, 0). Der Mechanismus beider Phasenübergänge wird durch die
Probenqualität und die Oberflächenpräparation beeinflusst, sodass die Phasenübergänge
erster Ordnung teilweise verlangsamt ablaufen. Durch eine Analyse der Oberflächendynamik
am Phasenübergang kann der zugrundeliegende Mechanismus des Domänenwachstums
im Realraum untersucht werden.
Im letzten Teil der Arbeit werden ultradünne Eisenfilme auf Rhodium(001) betrachtet.
Dabei treten auf der Doppellage Eisen (Fe) auf Rhodium (Rh) spannungsabhängige
elektronische Modulationen mit senkrecht zueinander orientierten Wellenvektoren
q1 = [(0, 30 ± 0, 03), 0, 0] und q2 = [0, (0, 30 ± 0, 03), 0] in Richtung [100] und [010] auf.
Temperaturabhängige Messungen zeigen die stetige Verkleinerung der Modulation beim
Erwärmen der Probe und somit einen Phasenübergang zweiter Ordnung. Die LDM tritt
auch auf der dritten und vierten Lage Eisen mit gleichgerichteten aber kleineren Wellenvektoren
q auf. Spinpolarisierte RTM-Daten zeigen einen c(2×2)-Antiferromagnetismus auf
einer Monolage Eisen. Für Fe-Bedeckungen von 1ML - 5ML tritt Ferromagnetismus
perpendikular zur Oberfläche auf. Diese Messungen zeigen erstmals gleichzeitiges Auftreten
einer elektronischen und magnetischen Phase in einem reinen 3d-Übergangsmetall
im Realraum.
Magnetometrie mit Diamant
(2015)
Gegenstand der Arbeit ist die Magnetometrie mit Stickstoff-Fehlstellen-Zentren im Diamantgitter und die Entwicklung eines Rastersondenmagnetometers auf Basis eines Ensembles dieser Defektzentren. Ein solches Instrument verspricht eine bislang nicht erreichte Kombination von Feldsensitivität und räumlicher Auflösung während einer Magnetfeldmessung, und kann damit einen wichtigen Beitrag für das Verständnis von magnetischen Systemen und Phänomenen liefern.
Die Arbeit widmet sich zunächst dem Verständnis der elektronischen Zustände des Defekts, und wie diese optisch untersucht werden können. Gleichzeitige Anregung der Zentren durch sichtbares Licht und elektromagnetischer Strahlung im Bereich von Mikrowellenfrequenzen machen es möglich, die elektronische Spinstruktur des Defekts zu messen und zu manipulieren. Dadurch kann direkt der Einfluss von externen Magnetfeldern auf die Energie der Spinzustände ausgelesen werden. Die quantenmechanischen Auswahlregeln der verschiedenen Anregungen können für eine selektive Anregung der Zentren entlang einer bestimmten kristallographischen Achse verwendet werden. Damit kann eine Ensemble von Defekten zur Vektormagnetometrie, ohne auf ein zusätzliches äußeres Magnetfeld angewiesen zu sein, welches die untersuchte Probe nachhaltig beeinflussen kann.
Anschließend wird die Entwicklung einer geeigneten Mikrowellenantenne dargestellt, die in einem späteren Rastersondenexperiment mit den Defekten auf geringem Raum eingesetzt werden kann. Außerdem werden die einzelnen Schritte präsentiert, wie die Farbzentren im Diamantgitter erzeugt werden und aus großen Diamantplättchen Nanostrukturen erzeugt werden, die als Rasterkraftsonden eingesetzt werden können.
Die fertigen Sonden können in einem modularen Rasterkraftaufbau verwendet werden, der über einen zusätzlichen optischen Zugang verfügt, sodass die Information des Spinsensors ausgelesen werden kann. In verschiedenen Testexperimenten wird die Funktionsweise des gesamten Apparats demonstriert.
Messungen mit Magnetresonanztomographen sind seit jeher mit hohen Lautstärken verbunden. Deshalb wird das Gerät im Volksmund auch als „laute Röhre“ bezeichnet. Bisher wurde das Problem mit Kopfhörern, Ohrenstöpseln und akustischer Dämmung des MRT-Scanners angegangen. Auch in der Fachliteratur wird das Problem als gegeben angesehen und es werden kaum wissenschaftliche Lösungsansätze zur Lautstärkereduktion beschrieben.
Das Ziel der vorliegenden Arbeit war es, Bildgebungs-Sequenzen für schwer‑optimierbare Bildkontraste und sogenannte Standard-Kontraste aus dem klinischen Umfeld hinsichtlich der Lautstärke zu optimieren. Viele dieser Kontraste können bereits mit einfachen Algorithmen wie dem Gradientenglättungsalgorithmus erfolgreich in Hinblick auf die Lautstärke optimiert werden. Allerdings existieren auch Sequenzen beziehungsweise Kontraste, die aufgrund ihrer Eigenschaften nicht von einem solchen Algorithmus profitieren können. Die Optimierungen und Änderungen sollten software-seitig erfolgen, das heißt durch Änderung der Gradientenformen und Datenakquisition.
In der Arbeit wurden die grundlegenden Zusammenhänge zwischen den verwendeten Geräteparametern und der Lautstärke untersucht und zudem die physikalischen Ursachen der Lautstärkeentwicklung hergeleitet. Diese konnten anhand der Lorentz-Kräfte quantitativ beschrieben werden. Somit konnten die Hauptursachen der Lautstärkeentwicklung identifiziert werden. Diese sind abhängig von der Gradienten-Steig-Rate, aber auch von der Amplitude der Gradienten. Es konnte gezeigt werden, dass eine Minimierung dieser Gradientenparameter zu einer geringeren Lautstärkeentwicklung führt. Allerdings führt diese Minimierung in den meisten Fällen auch zu einer systematischen Verlangsamung des Sequenzablaufs, was das Erreichen bestimmter Echozeiten und Bildkontraste unmöglich macht.
Zu den problematischen Kontrasten bezüglich der Lautstärkereduktion zählten der T1- und PD‑Kontrast einer Turbo-Spin-Echo-Sequenz. Durch die Kombination von mehreren Maßnahmen, wie der Adaption der k-Raum-Akquisition, der HF-Pulse-Parameter und den Gradientenformen, war es möglich, die Lautstärke in Beispielmessungen um bis zu 16,8 dB(A) zu reduzieren. Wie bei der kürzlich veröffentlichten Methode zur Reduktion für die T2‑gewichteten Kontraste, wurde dies zulasten einer Messzeitverlängerung von bis zu 50% erreicht. Die Endlautstärke betrug dabei circa 81 dB(A). Mit der Lautstärkeoptimierung der klinisch bedeutsamen T1- und PD‑Kontraste wurde die Palette an leisen, mit der Turbo-Spin-Echo‑Sequenz erzielbaren, Standard-Kontrasten (T1, T2 und PD) nun vervollständigt.
In einem anderen Ansatz wurde die Anwendbarkeit des CAT-Konzepts auf die Lautstärkereduktion untersucht. Beim CAT-Konzept wird die Messung in Einzelmessungen mit verschiedenen Parametern unterteilt. Bisher wurde dieser Ansatz zur SAR-Reduktion verwendet. Das Zentrum des k-Raums wird mit einer SAR-intensiven, kontrastgebenden Messung aufgenommen. Der verbleibende Teil des k-Raums wird mit einer SAR-reduzierten, bildstrukturrelevanten Messung aufgenommen. In dieser Arbeit wurde die Übertragung des CAT-Konzepts auf die Lautstärkereduktion untersucht. Anstelle von SAR-intensiven und SAR‑reduzierten Messungen, wurde hier die Unterteilung in „laute“ und „leise“ Messungen untersucht. Dabei wurden Überlegungen angestellt, die es für eine Vielzahl an Messungen ermöglichen, einen großen Teil der Messung leise zu gestalten ohne die Bildqualität oder den Bildkontrast zu verändern. In einem weiteren Schritt wurden Überlegungen für die Lautstärkereduktion der lauten Messungen vorgestellt. Anschließend wurden für eine GRE- und TSE-Sequenz Optimierungsschritte evaluiert und die Lautstärke gemessen.
Der hinsichtlich der Lautstärkeoptimierung herausforderndste Bildkontrast ist die diffusionsgewichtete Bildgebung. Diese besitzt eine Diffusions-Präparation zur Sichtbarmachung der Diffusivität, bei der die maximal mögliche Gradienten-Amplitude verwendet wird. Ebenso werden nach der Präparation die Daten mit einem EPI‑Akquisitionsmodul mit Blip-Gradienten akquiriert, das mit einem charakteristischem „Pfeifton“ einhergeht. Zum einen wurden die Gradientenformen konsequent angepasst. Zum anderen wurde eine Segmentierung der k-Raum-Akquisition in Auslese-Richtung verwendet, um die Gradienten‑Steig-Raten zu reduzieren. Auch hier konnte eine deutliche Lautstärkereduktion von bis zu 20,0 dB(A) erzielt werden. Dies wurde zulasten einer Messzeitverlängerung von 27% ‑ 34% im Vergleich zur Standard-Sequenz erreicht. Durch eine weitere Messzeitverlängerung um bis zu 23% kann die Lautstärke um weitere 0,9 dB(A) reduziert werden. Dabei hängt die genaue Messzeitverlängerung vom verwendeten GRAPPA-Faktor und der Anzahl der Auslese-Segmente ab. Die entstandene Sequenz wurde in mehreren Kliniken erfolgreich erprobt.
Bisher mussten bei MRT-Messungen stets Kompromisse zwischen „hoher Auflösung“, „hohem SNR“ und „geringer Messzeit“ getroffen werden. Als Anschauung dafür wurde das „Bermuda‑Dreieck der MRT“ eingeführt. Da alle drei Größen sich gegenseitig ausschließen, muss stets ein Mittelweg gefunden werden. Einige der in dieser Arbeit erzielten Erfolge bei der Lautstärkereduktion wurden auf Kosten einer verlängerten Messzeit erreicht. Daher ist es naheliegend, das „Bermuda-Dreieck der MRT“ um die Dimension der „geringen Lautstärke“ zu einer „Bermuda-Pyramide der MRT“ zu erweitern. Damit muss die Lautstärkeentwicklung in die Mittelweg‑Findung miteinbezogen werden.
Die in dieser Arbeit erzielten Lautstärken liegen in der Größenordnung zwischen 80 ‑ 85 dB(A). Somit können Messungen bei Verwendung von Gehörschutz angenehm für den Patienten durchgeführt werden. Durch neue Techniken der Zukunft wird es wahrscheinlich sein, höhere Auflösungen, höheres SNR oder kürzere Aufnahmedauern zu erzielen, beziehungsweise stattdessen diese in eine geringe Lautstärke „umzuwandeln“.
Ebenso werden möglicherweise auf der hardware-technischen Seite Fortschritte erzielt werden, so dass in neueren MRT-Scannergenerationen mehr Wert auf die Lärmdämmung gelegt wird und somit der softwarebasierten Lautstärkereduktion einen Schritt entgegen gekommen wird. Damit könnten zukünftige Patienten-Messungen gänzlich ohne störenden Gehörschutz durchgeführt werden.
Um die Wirkungsgrade organischer Solarzellen weiter zu steigern, ist ein Verständnis der auftretenden Verlustmechanismen entscheidend. Im Vergleich zu anorganischen photovoltaischen Zellen sind in den organischen Halbleitern die durch Absorption erzeugten Elektron-Loch-Paare, die als Exzitonen bezeichnet werden, sehr viel stärker gebunden. Daher müssen sie an einer Heterogrenzfläche, gebildet durch ein Donator- und ein Akzeptormaterial, in freie Ladungsträger getrennt werden. Mit dem erforderlichen Transportweg an die Heterogrenzschicht sind Rekombinationsverluste der exzitonischen Anregungen verbunden, die aus einer Vielzahl unterschiedlicher Prozesse resultieren und einen der Hauptverlustkanäle in organischen Solarzellen darstellen.
Aus diesem Grund wird der Fokus dieser Arbeit auf die Charakterisierung und mögliche Reduzierung solcher exzitonischen Verlustmechanismen gelegt. Als Modellsystem wird dazu eine planare Bilagen-Struktur auf Basis des Donatormaterials Diindenoperylen (DIP) und des Akzeptors Fulleren C60 verwendet. Durch die Kombination von elektrischen und spektroskopischen Messmethoden werden unterschiedliche exzitonische Verlustmechanismen in den aktiven Schichten charakterisiert und die zugrunde liegenden mikroskopischen Ursachen diskutiert. Dazu wird zuerst auf die strukturellen, optischen und elektrischen Eigenschaften von DIP/C60-Solarzellen eingegangen. In einem zweiten Abschnitt werden die mikroskopischen Einflüsse einer Exzitonen blockierenden Lage (EBL, exciton blocking layer) aus Bathophenanthrolin (BPhen) durch eine komplementäre Charakterisierung von Photolumineszenz und elektrischen Parametern der Solarzellen untersucht, wobei auch die Notwendigkeit der EBL zur Unterbindung von Metalleinlagerungen in den aktiven organischen Schichten analysiert wird. Die anschließende Studie der Intensitäts- und Temperaturabhängigkeit der j(U)-Kennlinien gibt Aufschluss über die intrinsischen Zellparameter sowie die Rekombinationsmechanismen von Ladungsträgern in den aktiven Schichten. Ferner werden durch temperaturabhängige spektroskopische Untersuchungen der Photo- und Elektrolumineszenz der Solarzellen Informationen über die elektronischen Zustände der DIP-Schicht erlangt, die für Rekombinationsverluste der generierten Exzitonen verantwortlich sind. Zusätzlich werden Raman-Messungen an den Solarzellen und Einzelschichten diskutiert. In einer abschließenden Studie werden exzitonische Verluste unter Arbeitsbedingungen der Solarzelle durch Ladungsträgerwechselwirkungen in der Donator-Schicht quantifiziert. In dieser Arbeit konnten verschiedene relevante Verlustprozesse in organischen Solarzellen reduziert werden. Durch die Identifizierung der mikroskopischen Ursachen dieser Verluste wurde eine wichtige Voraussetzung für eine weitere Steigerung der Leistungseffizienz geschaffen.
Im Rahmen dieser Arbeit sollten die Möglichkeiten der MR Tomographie erkundet werden bakterielle Infektionen im Zeitverlauf darzustellen. Genauer gesagt sollte das Potential der MR Tomographie anhand eines durch eine Infektion induzierten lokalisierten Abszesses unter Verwendung dreier unterschiedlicher MRT Methoden untersucht werden: Mittels nativem \(T_2\) Kontrast; der Verwendung von superparamagnetischen Eisenoxid Partieln (USPIO) als \(T_2^*\) Kontrastmittel; und dem Einsatz von Perfluorkarbonen (PFC) als \(^{19}F\) MRT Marker (siehe Kapitel 3).
Wie erwartet führte die durch die Infektion hervorgerufene Entzündung zu veränderten \(T_2\)-Zeiten, welche auf \(T_2\)-gewichteten MR Bildern eine Lokalisierung des Abszessbereiches erlauben. Jedoch eigneten sich diese Daten aufgrund der graduellen Änderung der \(T_2\)-Zeiten nicht, um eine klare Grenze zwischen Abszess und umliegendem Gewebe zu ziehen.
Superparamagnetische Eisenoxidpartikel andererseit haben als MRT Kontrastmittel bereits in den letzten Jahren ihre Fähigkeit unter Beweis gestellt Entzündungen [53, 58, 64] darzustellen. Die Anreicherung dieser Partikel am Rande des Abszesses [53], wie sie auch in unseren MR Daten zu beobachten war, erlaubte eine relativ scharfe Abgrenzung gegenüber dem umgebenden Gewebe in der chronischen Phase der Infektion (Tag 9 p.i.). Hingegen genügte die nur sehr spärlichen Anreicherung von USPIO Partikeln in der akuten Phase der Infektion (Tag 3 p.i.) nicht für eine entsprechende Abgrenzung [58].
Aufgrund der sehr geringen biologischen Häufigkeit und den sehr kurzen Relaxationszeiten von endogenem Fluor eignen sich Perfluorkarbone als Markersubstanz in der MR Tomographie von biologischen Systemen. Insbesondere da PFC Emulsionen durch phagozytierende Zellen aufgenommen werden und im Bereich von Entzündungen akkumulieren [30, 59]. In dieser Arbeit konnte anhand der erhaltenen MRT Daten eine Akkumulation von Perfluorkarbonen nicht nur in der chronischen Phase, sondern auch in der akuten Phase nachgewiesen werden. Diese Daten erlauben somit zu allen untersuchten Zeitpunkten eine Abgrenzung zwischen Infektion und umliegenden Gewebe.
Aufgrund der besagten Vorteile wurden die Perfluorkarbone gewählt, um die Möglichkeiten der MR Tomographie zu testen, quantitative Informationen über die schwere der Infektion zu liefern. Als Referenz für die Bakterienbelastung wurden die Biolumineszenzbildgebung (BLI) [49, 50] und die Standardmethode zur Bestimmung der Bakterienbelastung cfu (koloniebildenden Einheiten) herangezogen. Eine Gegenüberstellung der zeitlichen Verläufe der durch die Biolumineszenzbildgebung und durch die cfu erhaltenen Daten liefert eine qualitative Übereinstimmung mit den durch die 19F MR Tomographie erhaltenen Daten. Dies trifft hierbei sowohl auf die über den gesamten Infektionsbereich hinweg summierten Signalamplituden, als auch auf das Volumen zu, in dem Fluor am Ort der Infektion akkumuliert wurde. Im Gegensatz zur Methode der cfu Bestimmung sind die MR Tomographie und die Biolumineszenzbildgebung nicht invasiv und erlauben die Verfolgung des Infektionsverlaufes an einem einzelnen Individuum. Hierzu benötigt, im Gegensatz zur MR Tomographie, die Methode der Biolumineszenzbildgebung jedoch einen speziellen Pathogenstamm. Darüber hinaus ist hervorzuheben, dass die MR Tomographie zudem die Möglichkeit bietet auch morphologische Informationen über den Infektionsbereich und seine Umgebung zu akquirieren.
Gerade weil jede dieser Methoden die mit der Infektion einhergehenden Prozesse aus einer leicht anderen Blickrichtung betrachtet, erscheint es sinnvoll diese etablierte Untersuchungsplattform bestehend aus MRT, BLI und cfu über die in dieser Arbeit bearbeitete Fragestellung hinaus näher zu untersuchen. Insbesondere der Aspekt inwieweit die drei Methoden sich gegenseitig ergänzen, könnte einen tieferen Einblick in die Wechselwirkung zwischen Pathogen und Wirt erlauben.
Auch wenn für die betrachtete Fragestellung bereits der hierdurchgeführte semiquanitative Ansatz zur Bestimmung der relativen Fluormengen am Ort der Infektion ausreichte, so ist doch im Allgemeinen wünschenswert probenbezogen die Sensitivität der Spule und damit die Güte der Spulenabstimmung zu bestimmen. Hierzu ist jedoch die Aufnahme von \(B_1\)-Karten unabdingbar und wird entsprechend im Kapitel 4 \(Bloch-Siegert B_1^+-Mapping\) näher addressiert. Der Schwerpunkt liegt hierbei, wie der Kapitelname bereits andeutet, auf der Bloch-Siegert Methode, die insbesondere in der präsentierten Implementierung in einer Turbo/ Multi Spin Echo Sequenz eine effiziente Nutzung der relativ langen \(T_\)2-Zeiten der Perfluorkarbone erlaubt. Da zudem die Bloch-Siegert-Methode eine rein phasenbasierte Methode ist, kann neben der aus den Daten erzeugten \(B_1\)-Karte zugleich ein unverfälschtes Magnitudenbild generiert werden, wodurch eine sehr effiziente Nutzung der vorhandenen Messzeit ermöglicht wird. Diese Eigenschaft ist insbesondere für \(^{19}F\) Bildgebung von besonderem Interesse, da hier für jede Messung, aufgrund der üblicherweise relativ geringen Konzentration an Fluoratomen, lange Messzeiten benötigt werden.
Zusammenfassend konnte anhand des untersuchten Tiermodells sowohl die Fähigkeit der MR Tomographie nachgewiesen werden Infektionen im Zeitverlauf darzustellen, als auch die Fähigkeit der MR Tomographie quantitative Informationen über den Verlauf der Infektion zu liefern. Desweiteren konnte eine Möglichkeit aufgezeigt werden, welche das Potential hat in vertretbarem Zeitrahmen auch in vivo B1+-Karten auf dem Fluorkanal zu erstellen und so einen zentralen Unsicherheitsfaktor, für Relaxometry und absolute Quantifizierung von \(^{19}F\) Daten in vivo, zu beseitigen.
Der Fokus dieser Arbeit liegt in der Untersuchung des exzitonischen Transports, sowie der
Dynamik exzitonischer Zustände in organischen Halbleitern. Als fundamentale Fragestellung werden die inhärenten, materialspezifischen Parameter untersucht, welche Einfluss auf die Exzitonen-Diffusionslänge besitzen. Sowohl der Einfluss der strukturellen Ordnung als auch die fundamentalen exzitonischen Transporteigenschaften in molekularen Schichten werden anhand der archetypischen, morphologisch unterschiedlichen organischen Halbleiter Diindenoperylen (DIP), sowie dessen Derivaten, α-6T und C60 studiert. Die resultierende Filmbeschaffenheit wird mittels Röntgendiffraktometrie (XRD) und Rasterkraftmikroskopie (AFM) analysiert, welche Informationen über die Morphologie, die strukturelle Ordnung und die Mikrostruktur der jeweiligen molekularen Schichten auf verschiedenen Längenskalen liefern.
Um Informationen über die Exzitonen-Diffusion und die damit einhergehende Exzitonen-
Diffusionslänge LD zu erhalten, wurde die Methode des Photolumineszenz (PL)-Quenchings
gewählt. Um umfassende Informationen zur Exzitonen-Bewegung in molekularen Dünnschichten zu erhalten, wurde mit Hilfe der Femtosekunden-Transienten-Absorptionsspektroskopie (TAS) und der zeitkorrelierten Einzelphotonenzählung (TCSPC) die Dynamik angeregter Energiezustände und deren jeweiliger Lebensdauer untersucht. Beide Messverfahren gewähren Einblicke in den zeitabhängigen Exzitonen-Transport und ermöglichen eine Bestimmung des Ursprungs möglicher Zerfallskanäle.
Die zentralen Ergebnisse dieser Arbeit zeigen zum einen eine Korrelation zwischen LD und der strukturellen Ordnung der Schichtmorphologie, zum anderen weist die temperaturunabhängige
Exzitonen-Bewegung in hochgeordneten polykristallinen DIP-Filmen auf die Möglichkeit
der Existenz eines kohärenten Exzitonen-Transports bei tiefen Temperaturen unterhalb von 80 K hin. Zeitaufgelöste spektroskopische Untersuchungen lassen zudem auf ein breites Absorptionsband höherer angeregter Zustände schließen und weisen eine höhere Exzitonen-
Zustandsdichte in polykristallinen DIP-Schichten im Vergleich zu ungeordneten Filmen auf.
In dieser Arbeit werden für die Anwendung in der menschlichen Lunge
optimierte Methoden zur Bestimmung von T1- und T2*-Karten diskutiert:
Dc-Gating ermöglicht die Quantifizierung in freier Atmung, wobei für die
T1-Quantifizierung mittels Inversion Recovery eine Korrektur des dc-Signals
entwickelt wurde. Dies hat den Vorteil, dass Parameterkarten aus mehreren
Messungen anhand ihrer dc-Signale passend überlagert werden können. Da T1
und T2* auf unterschiedliche Art und Weise von der Sauerstoffkonzentration
abhängen, verbessert dies die Möglichkeit, ΔT1- und ΔT2*- Differenzkarten aus
Messungen mit unterschiedlichen O2-Konzentrationen im Atemgas zu erstellen.
Die Parameterquantifizierung ist in erster Linie für die Beobachtung von
Krankheitsverläufen interessant, da T1 und T2* absolute, vergleichbare Zahlen
sind. Da T2* deutlich vom Atemzustand abhängt, ist es auch hierfür sinnvoll,
durch Gating identische Atemzustände abzubilden. Um die unterschiedlichen
Einflüsse des Sauerstoffs auf T1 und T2* besser vergleichbar zu machen, wurde
in dieser Arbeit weiterhin eine kombinierte Messung für beide Parameter
implementiert: Da auch diese in freier Atmung stattfindet, profitieren nicht
nur die Differenzkarten von der Überlagerung der Bilder, sondern auch der
Vergleich der ΔT1- und ΔT2*-Karten untereinander.
Messungen mit einer konventionellen kartesischen Methode an COPD-Patienten
unter Raumluft- und 100% Sauerstoffatmung ergaben bei Verwendung identischer
Atemmasken ein deutlich geringeres ΔT1 als in gesunden Probanden. Dass T1 in
der Lunge nicht nur von der Sauerstoffkonzentration sondern auch von der
Gewebezusammensetzung und insbesondere auch dem Blutvolumenanteil abhängt,
zeigte sich hierbei aber auch an den bei COPD im Mittel sehr viel kürzeren
T1-Zeiten bei Raumluft. Die aufgrund emphysematischer Veränderung noch
zusätzlich reduzierte Protonendichte im Parenchym kranker Lungen macht diese
Messungen allerdings besonders schwierig.
Die oben erwähnten Optimierungen der T1-Quantifizierung zielen daher auch
darauf ab, das Signal aus der Lunge zu maximieren, um Patientenmessungen
einfacher zu machen: Messungen in freier Atmung sind für Patienten nicht nur
einfacher, sondern erlauben effektiv auch längere Messzeiten. Insbesondere
wurde aber durch die Entwicklung einer radialen Methode die Echozeit zur
Messung reduziert, um die kurze T2*-Zeit in der Lunge auszugleichen.
Schließlich wurde durch Implementation einer 2D UTE Sequenz die Messung bei
der kürzesten vom Scanner erlaubten Echozeit ermöglicht.
Die Messungen bei ultrakurzen Echozeiten in Probanden zeigten allerdings
deutlich kürzere T1-Zeiten als die zuvor gefundenen oder in der Literatur
dokumentierten. In weiteren Experimenten wurde das sichtbare T1 zu mehreren
Echozeiten mit Hilfe der zur kombinierten Quantifizierung entwickelten
Methode bestimmt. Dabei ergab sich eine Zunahme des gemessenen T1 mit der
Echozeit. Aus diesem Verhalten sowie den gefundenen kürzesten und längsten T1
lässt sich schließen, dass das intra- und extravaskuläre Lungenwasser, also
Blut bzw. das umgebende Gewebe, mit unterschiedlichen T1- und T2*-Zeiten zum
Signal und damit auch dem effektiven T1 beitragen.
Dass das TE der Messung die Gewichtung dieser Kompartimente bestimmt, hat
dabei mehrere Auswirkungen: Einerseits bedeutet dies, dass beim Vergleich von
T1-Messungen in der Lunge stets auch das TE mitbetrachtet werden muss, bei
dem diese durchgeführt wurden. Andererseits lässt sich die Möglichkeit, die
Messung auf die unterschiedlichen Kompartimente abzustimmen, potentiell
ausnutzen, um zusätzliche diagnostische Informationen zu gewinnen: Da T1 vom
Blutvolumenanteil und der Gewebezusammensetzung abhängt, könnte dieser Effekt
helfen, diese beiden Einflüsse zu differenzieren.
Während die in dieser Arbeit beschriebenen Experimente die TE-Abhängigkeit
des sichtbaren T1 in Probanden aufzeigen, liefern sie allerdings noch keine
genaue Erklärung für die möglichen Ursprünge dieses Effekts. Um diese weiter
zu untersuchen, könnten allerdings gezielte Phantom- und in vivo-Experimente
Aufschluss geben: Ein Aufbau, der die Feldverzerrung durch luftgefüllte
Alveolen in Lösungen mit entsprechenden verschiedenen Suszeptibilitäten
nachbildet, reduziert den Unterschied zwischen den Kompartimenten auf T1 und
χ. Eine in vivo-Messung mit möglichst großer Differenz zwischen Ex- und
Inspiration hingegen könnte den Einfluss der Abstände der Kompartimente vom
Gasraum aufzeigen, da die Alveolarwände in tiefer Inspiration am weitesten
gedehnt und daher am dünnsten sind.
Ziel dieser Arbeit war es, das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung mittels der MRT darzustellen. Um trotz der niedrigen Protonendichte der Lunge und der geforderten hohen Auflösung ausreichend Signal für eine verlässliche Diagnostik zu erhalten, sind Aufnahmezeiten von einigen Minuten nötig. Um die Untersuchung für den Patienten angenehmer zu gestalten oder auf Grund der eingeschränkten Fähigkeit eines Atemstopps überhaupt erst zu ermöglichen, war eine Anforderung, die Aufnahmen in freier Atmung durchzuführen. Dadurch entstehen allerdings Bewegungsartefakte, die die Diagnostik stark beeinträchtigen
und daher möglichst vermieden werden müssen. Für eine Bewegungskompensation
der Daten muss die auftretende Atembewegung detektiert werden. Die Bewegungsdetektion
kann durch externe Messgeräte (Atemgurt oder Spirometer) oder durch eine
zusätzliche Anregungen erfolgen (konventionelle Navigatoren) erfolgen. Nachteile
dieser Methoden bestehen darin, dass die Bewegung während der Atmung nicht
direkt verfolgt wird, dass elektronische Messgeräte in die Nähe des Tomographen
gebracht werden und das die Patienten zusätzlich vorbereitet und eingeschränkt
werden. Des Weiteren erfordert eine zusätzliche Anregung extra Messzeit und kann
unter Umständen die Magnetisierung auf unterwünschte Weise beeinflussen.
Um die angesprochenen Schwierigkeiten der Bewegungsdetektion zu umgehen,
wurden in dieser Arbeit innerhalb einer Anregung einer 3d FLASH-Sequenz sowohl
Bilddaten- als auch Navigatordaten aufgenommen. Als Navigator diente dabei das
nach der Rephasierung aller bildgebenden Gradienten entstehende Signal (DC Signal).
Das DC Signal entspricht dabei der Summe aller Signale, die mit einem bestimmten
Spulenelement detektiert werden können. Bewegt sich beispielsweise die Leber
bedingt durch die Atmung in den Sensitivitätsbereich eines Spulenelementes, wird
ein stärkeres DC Signal detektiert werden. Je nach Positionierung auf dem Körper
kann so die Atembewegung mit einzelnen räumlich lokalisierten Spulenelementen
nachverfolgt werden. Am DC Signalverlauf des für die Bewegungskorrektur ausgewählten
Spulenelementes sind dann periodische Signalschwankungen zu erkennen.
Zusätzlich können aus dem Verlauf Expirations- von Inspirationszuständen unterschieden
werden, da sich Endexpirationszustände im Regelfall durch eine längere
Verweildauer auszeichnen.
Grundsätzlich kann das DC Signal vor oder nach der eigentlichen Datenaufnahme
innerhalb einer Anregung aufgenommen werden. Auf Grund der kurzen Relaxationszeit
T∗2 des Lungengewebes fällt das Signal nach der RF Anregung sehr schnell ab. Um
möglichst viel Signal zu erhalten sollten, wie in dieser Arbeit gezeigt wurde, innerhalb einer Anregung zuerst die Bilddaten und danach die Navigatordaten aufgenommen
werden. Dieser Ansatz führt zu einer Verkürzung der Echozeit TE um 0.3 ms und
damit zu einem SNR Gewinn von etwa 20 %. Gleichzeitig ist das verbleibende Signal
nach der Datenakquisition und Rephasierung der bildgebenden Gradienten noch
ausreichend um die Atembewegung zu erfassen und somit eine Bewegungskorrektur
der Daten (Navigation) zu ermöglichen.
Um eine retrospektive Bewegungskorrektur durchführen zu können, müssen Akzeptanzbedingungen
(Schwellenwerte) für die Datenauswahl festgelegt werden. Bei
der Wahl des Schwellenwertes ist darauf zu achten, dass weder zu wenige noch zu
viele Daten akzeptiert werden. Akzeptiert man sehr wenige Daten, zeichnen sich die
Rekonstruktionen durch einen scharfen Übergang zwischen Lunge und Diaphragma
aus, da man sehr wenig Bewegung in den Rekonstruktionen erlaubt. Gleichzeitig
erhöht sich allerdings das Risiko, dass nach der Navigation Linien fehlen. Dies führt
zu Einfaltungsartefakten, die in Form von gestörten Bildintensitäten in den Rekonstruktionen
zu sehen sind und die diagnostische Aussagekraft einschränken. Um
Einfaltungsartefakte zu vermeiden sollte der Schwellenwert so gewählt werden, dass
nach der Datenauswahl keine Linien fehlen. Aus dieser Anforderung lässt sich ein
maximaler Schwellenwert ableiten. Akzeptiert man dagegen sehr viele Daten, zeichnen
sich die Rekonstruktionen durch erhöhtes Signal und das vermehrte Auftreten
von Bewegungsartefakten aus. In diesem Fall müsste der Arzt entscheiden, ob Bewegungsartefakte
die Diagnostik zu stark beeinflussen. Wählt man den Schwellenwert
so, dass weder Linien fehlen noch zu viel Bewegung erlaubt wird, erhält man Rekonstruktionen
die sich durch einen scharfen Diaphragmaübergang auszeichnen und in
denen noch kleinste Gefäße auch in der Nähe des Diaphragmas deutlich zu erkennen
sind. Hierfür haben sich Schwellenwerte, die zu einer Datenakzeptanz von ca. 40 %
führen als günstig erwiesen.
Um Einfaltungsartefakte auf Grund der retrospektiven Datenauswahl zu verhindern,
muss das Bildgebungsvolumen mehrfach abgetastet werden. Dadurch wird
gewährleistet, dass für die letztendliche Rekonstruktion ausreichend Daten zur Verfügung
stehen, wobei mehrfach akzeptierte Daten gemittelt werden. Dies spielt auf
Grund der niedrigen Protonendichte der Lunge eine wesentliche Rolle in der Rekonstruktion
hochaufgelöster Lungendatensätze. Weiterhin führt das Mitteln von
mehrfach akzeptierten Daten zu einer Unterdrückung der sogenannten Ghost Artefakte,
was am Beispiel der Herzbewegung in der Arbeit gezeigt wird.
Da die Messungen unter freier Atmung durchgeführt werden und keine zusätzlichen
externen Messgeräte angeschlossen werden müssen, stellte die Untersuchung
für die Patienten in dieser Arbeit kein Problem dar. Im ersten Teil dieser wurde Arbeit
gezeigt, dass sich mit Hilfe des DC Signales als Navigator und einer retrospektiven
Datenauswahl das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung
von beispielsweise 1.6 x 1.6 x 4 mm3 innerhalb von 13 min. darstellen lässt. Die Anwendbarkeit der vorgestellten Methode zur Bewegungskorrektur wurde neben
Probanden auch an Patienten demonstriert.
Da wie bereits beschrieben das Bildgebungsvolumen mehrfach abgetastet werden
muss, wiederholt sich auch die Abfolge der für die Bildgebung verantwortlichen
Gradienten periodisch. Da sich der Atemzyklus aber auch periodisch wiederholt,
kann es zu Korrelationen zwischen der Atmung und den wiederholten Messungen
kommen. Dies führt dazu, dass auch nach vielen wiederholten Messungen immer
noch größere Bereiche fehlender Linien im k-Raum bleiben, was zu Artefakten in
den Rekonstruktionen führt. Dies konnte im Falle der konventionellen Bewegungskorrektur
in den Gatingmasken, die die Verteilung und Häufigkeit der einzelnen
akzeptierten Phasenkodierschritte im k-Raum zeigen, beobachtet werden.
Da eine vorsätzliche Unterbrechung der Atemperiodizität (der Patient wird dazu
angehalten, seine Atemfrequenz während der Messung absichtlich zu variieren) zur
Vermeidung der angesprochenen Korrelationen nicht in Frage kommt, musste die
Periodizität in der Datenaufnahme unterbrochen werden. In dieser Arbeit wurde
dies durch eine quasizufällige Auswahl von Phasen- und Partitionskodiergradienten
erreicht, da Quasizufallszahlen so generiert werden, dass sie unabhängig von ihrer
Anzahl einen Raum möglichst gleichförmig ausfüllen. Die quasizufällige Datenaufnahme
führt deshalb dazu, das sowohl akzeptierte als auch fehlende Linien nach der
Bewegungskorrektur homogen im k-Raum verteilt auftreten.
Vergleicht man das auftreten von Ghosting zeichnen sich die quasizufälligen Rekonstruktionen
im Vergleich zur konventionellen Datenaufnahme durch eine verbesserte
Reduktion von Ghost Artefakten aus. Dies ist auf die homogene Verteilung mehrfach
akzeptierter Linien im k-Raum zurückzuführen. Die homogenere Verteilung von
fehlenden Linien im k-Raum führt weiterhin zu einer wesentlich stabileren Rekonstruktion
fehlender Linien mit parallelen MRT-Verfahren (z.B. iterativem Grappa).
Dies wird umso deutlicher je höher der Anteil fehlender Linien im k-Raum wird. Im
Falle der konventionellen Datenaufnahme werden die zusammenhängenden Bereiche
fehlender Linien immer größer, was eine erfolgreiche Rekonstruktion mit iterativem
Grappa unmöglich macht. Im Falle der quasizufälligen Datenaufnahme dagegen
können auch Datensätze in denen 40% der Linien fehlen einfaltungsartefaktfrei
rekonstruiert werden.
Im weiteren Verlauf der Arbeit wurde gezeigt, wie die Stabilität der iterativen Grappa
Rekonstruktion im Falle der quasizufälligen Datenaufnahme für eine erhebliche
Reduktion der gesamten Messzeit genutzt werden kann. So ist in einer Messzeit von
nur 74s die Rekonstruktion eines artefaktfreien und bewegungskorrigierten dreidimensionalen
Datensatzes der menschlichen Lunge mit einer Auflösung von 2 x 2 x
5 mm3 möglich. Des Weiteren erlaubt die quasizufällige Datenaufnahme in Kombination
mit iterativem Grappa die Rekonstruktion von Datensätzen unterschiedlicher
Atemphasen von Inspiration bis Expiration (4D Bildgebung). Nach einer Messzeit
von 15min. wurden 19 unterschiedliche Atemzustände rekonstruiert, wobei sich der Anteil der fehlenden Linien zwischen 0 und 20 % lag. Im Falle der konventionellen
Datenaufnahme wäre eine wesentlich längere Messzeit nötig gewesen, um ähnliche
Ergebnisse zu erhalten.
Zum Schluss soll noch ein Ausblick über mögliche Weiterentwicklungen und Anwendungsmöglichkeiten,
die sich aus den Erkenntnissen dieser Arbeit ergeben haben,
gegeben werden. So könnte das quasizufällige Aufnahmeschema um eine Dichtegewichtung
erweitert werden. Hierbei würde der zentrale k-Raum Bereich etwas
häufiger als die peripheren Bereiche akquiriert werden. Dadurch sollte die iterative
Grappa Rekonstruktion noch stabiler funktionieren und Ghost Artefakte besser reduziert
werden. Die Verteilung der Linien sollte allerdings nicht zu inhomogen werden,
um größere Lücken im k-Raum zu vermeiden.
Darüber hinaus könnte die vorgestellte Methode der Bewegungskompensation
auch für die Untersuchung anderer Organe oder Körperteile verwendet werden.
Voraussetzung wäre lediglich das Vorhandensein dezidierter Spulenanordnungen,
mit denen die Bewegung nachverfolgt werden kann. So ist beispielsweise eine dynamische
Bildgebung des frei und aktiv bewegten Knies möglich, wobei zwischen
Beugung und Streckung durch die erste Ableitung des zentralen k-Raum Signales
unterschieden werden kann. Dies kann zusätzliche Diagnoseinformationen liefern
oder für Verlaufskontrollen nach Operationen benutzt werden [15].
Eine Weiterentwicklung mit hohem klinischen Potential könnte die Kombination
der in dieser Arbeit vorgestellten retrospektiven Bewegungskorrektur mit einer Multi-
Gradienten-Echo Sequenz darstellen. Hierzu musste die bestehende Sequenz lediglich
um eine mehrfache Abfolge von Auslesegradienten innerhalb einer Anregung erweitert
werden. Dies ermöglicht eine bewegungskorrigierte voxelweise Bestimmung der
transversalen Relaxationszeit T∗2 in hoher räumlicher Auflösung. Unter zusätzlicher
Sauerstoffgabe kann es zu einer Veränderung von T∗2 kommen, die auf den sogenannten
BOLD Effekt (Blood Oxygen Level Dependent) zurückzuführen ist. Aus dieser
Änderung könnten Rückschlüsse auf hypoxische Tumorareale gezogen werden. Da
diese eine erhöhte Strahlenresistenz aufweisen, könnte auf diese Bereiche innerhalb
des Tumors eine erhöhte Strahlendosis appliziert und so möglicherweise Behandlungsmisserfolge
reduziert werden. Gleichzeitig kann durch die 4D Bildgebung eine
mögliche Tumorbewegung durch die Atmung erfasst und diese Information ebenfalls
in der Bestrahlungsplanung benutzt werden. Die Lungen MRT könnte somit um eine
hochaufgelöste dreidimensionale funktionelle Bildgebung erweitert werden.
Ziel dieser Arbeit ist es, ein verbessertes Verständnis für den Zusammenhang zwischen mechanischer Steifigkeit und Wärmetransport über das Festkörpergerüst bei hochporösen Materialien zu erlangen. Im Fokus dieser Arbeit steht die Fragestellung, wie mechanische Steifigkeit und Wärmeleitfähigkeit bei hochporösen Materialien miteinander zusammenhängen und ob es möglich ist, diese beiden Eigenschaften durch geometrische Modifikationen der Mikrostruktur unabhängig voneinander zu verändern. Die durchgeführten Untersuchungen haben gezeigt, dass ein Großteil der mikrostrukturellen Modifikationen beide Materialeigenschaften beeinflussen und die mechanische Steifigkeit in der Regel eng mit dem Wärmetransport über das Festkörpergerüst verknüpft ist. Es konnte jedoch auch nachgewiesen werden, dass die mechanische Steifigkeit bei hochporösen Materialien nicht eindeutig mit dem Wärmetransport über das Festkörpergerüst zusammenhängt und spezifische mikrostrukturelle Modifikationen einen stärkeren Einfluss auf die mechanische Steifigkeit besitzen, als auf den Wärmetransport über das Festkörpergerüst. Umgekehrt ist diese Aussage nicht ganz so eindeutig.
Die theoretische Betrachtung des Zusammenhangs zeigt, dass in die Berechnung der mechanischen Steifigkeit teils andere geometrische Strukturgrößen einfließen, als in die Berechnung des Wärmetransports über das Festkörpergerüst, so dass die mechanische Steifigkeit unabhängig von der Wärmeleitfähigkeit verändert werden kann. Es zeigt sich jedoch auch, dass die meisten strukturellen Veränderungen beide Eigenschaften beeinflussen und die mechanische Steifigkeit aufgrund der Biegedeformation der Netzwerkelemente systematisch stärker auf strukturelle Veränderungen reagiert als die Wärmeleitfähigkeit der Struktur, so dass die mechanische Steifigkeit in der Regel quadratisch mit der Wärmeleitfähigkeit des Festkörpergerüstes skaliert. Mit den Methoden der effective-media-theory lassen sich Grenzen ermitteln, innerhalb derer sich mechanische Steifigkeit und Wärmeleitfähigkeit unabhängig voneinander variieren lassen.
Im experimentellen Teil der Arbeit wurden Probenserien von Polyurethan-Schäumen, Polyurea Aerogelen und organisch / anorganischen Hybrid Aerogelen herangezogen, so dass poröse Materialien mit geordneten, voll vernetzten Mikrostrukturen, mit statistisch isotropen, teilvernetzen Mikrostrukturen, sowie Mikrostrukturen mit anisotropen Charakter in die Untersuchung einbezogen werden konnten. Als Struktureigenschaften, die die mechanische Steifigkeit ungewöhnlich stark beeinflussen, konnten die Regelmäßigkeit der Struktur und der Krümmungsradius der Netzwerkelemente sicher identifiziert werden. Alle weiteren strukturellen Veränderungen führen zu dem annähernd quadratischen Zusammenhang.
In einem dritten Abschnitt dieser Arbeit wird das vereinfachte Phononendiffusionsmodell herangezogen, um den Zusammenhang zwischen mechanischer Steifigkeit und Wärmetransport über das Festkörpergerüst bei Aerogelen grundlagenphysikalisch zu modellieren. Zur Diskussion werden die experimentell ermittelten Eigenschaften der isotropen Polyurea Aerogele herangezogen und eine qualitative Modellierung ihrer Schwingungszustandsdichten durchgeführt. Es konnte gezeigt werden, dass die Kombination aus Probendichte und Schallgeschwindigkeit, mit der sich die mechanische Steifigkeit berechnen lässt, unter bestimmten Randbedingungen auch die Energie und Transporteigenschaften der Phononen beschreibt, die den Wärmetransport über das Festkörpergerüst bei Aerogelen bestimmen.
Die Ergebnisse dieser Arbeit lassen sich zum Beispiel heranziehen, um die Eigenschaften hochporöser Materialien für eine gegebene Anwendung durch mikrostrukturelle Modifikationen optimal zu gestalten.
Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von
transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind.
Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch
die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie
-AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden.
Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden.
Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem
Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der
Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die
Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen
Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt.
Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden.
Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können.