80.00.00 INTERDISCIPLINARY PHYSICS AND RELATED AREAS OF SCIENCE AND TECHNOLOGY
Refine
Has Fulltext
- yes (9)
Is part of the Bibliography
- yes (9)
Document Type
- Doctoral Thesis (9)
Language
- German (9) (remove)
Keywords
- Kernspintomografie (5)
- Kernspinresonanz (2)
- Magnetresonanztomographie (2)
- 19F MR (1)
- 3D-Bildgebung (1)
- Analyse latenter Strukturen (1)
- Analytische Simulation (1)
- Aorta (1)
- Aufnahmeplanung (1)
- B1 Mapping (1)
Institute
Sonstige beteiligte Institutionen
Das Ziel der vorliegenden Arbeit war die Entwicklung neuer, robuster Methoden der Spin-Lock-basierten MRT. Im Fokus stand hierbei vorerst die T1ρ-Quantifizierung des Myokards im Kleintiermodell. Neben der T1ρ-Bildgebung bietet Spin-Locking jedoch zusätzlich die Möglichkeit der Detektion ultra-schwacher, magnetischer Feldoszillationen. Die Projekte und Ergebnisse, die im Rahmen dieses Promotionsvorhabens umgesetzt und erzielt wurden, decken daher ein breites Spektrum der Spin-lock basierten Bildgebung ab und können grob in drei Bereiche unterteilt werden. Im ersten Schritt wurde die grundlegende Pulssequenz des Spin-Lock-Experimentes durch die Einführung des balancierten Spin-Locks optimiert. Der zweite Schritt war die Entwicklung einer kardialen MRT-Sequenz für die robuste Quantifizierung der myokardialen T1ρ-Relaxationszeit an einem präklinischen Hochfeld-MRT. Im letzten Schritt wurden Konzepte der robusten T1ρ-Bildgebung auf die Methodik der Felddetektion mittels Spin-Locking übertragen. Hierbei wurden erste, erfolgreiche Messungen magnetischer Oszillationen im nT-Bereich, welche lokal im untersuchten Gewebe auftreten, an einem klinischen MRT-System im menschlichen Gehirn realisiert.
Der Ausbau der regenerativen Energiequellen führt vermehrt zu unvorhersehbaren Schwankungen der erzeugten Leistung, da Windkraft und Photovoltaik von natürlichen Bedingungen abhängen. Gerade Kurzzeitfluktuationen im Sekunden- bis Minutenbereich, die bei Solarzellen durch die Verschattung von vorüberziehenden Wolken zustande kommen, wird bislang wenig Beachtung geschenkt. Kurzzeitspeicher müssen eine hohe Zyklenstabilität aufweisen, um zur Glättung dieser Leistungsfluktuationen in Frage zu kommen. Im Rahmen der vorliegenden Dissertation wurden elektrochemische Doppelschichtkondensatoren für die Kopplung mit Siliziumsolarzellen und organischen Solarmodulen mit Hilfe von Simulationen und Messungen untersucht. Zusätzlich wurden grundlegende Fragestellungen zur Prozessierung und Alterung von Doppelschichtkondensatoren im Hinblick auf ein in der Literatur bereits diskutiertes System betrachtet, das beide Komponenten in einem Bauteil integriert - den sogenannten photocapacitor.
Um die Druckbarkeit des gesamten elektrochemischen Doppelschichtkondensators zu ermöglichen, wurde der konventionell verwendete Flüssigelektrolyt durch einen Polymer-Gel-Elektrolyten auf Basis von Polyvinylalkohol und einer Säure ersetzt. Durch eine Verbesserung der Prozessierung konnte ein größerer Anteil der spezifischen Fläche der porösen Kohlenstoffelektroden vom Elektrolyten benetzt und somit zur Speicherung genutzt werden. Die Untersuchungen zeigen, dass mit Polymer-Gel-Elektrolyten ähnliche Kapazitäten erreicht werden wie mit Flüssigelektrolyten. Im Hinblick auf die Anwendung im gekoppelten System muss der elektrochemische Doppelschichtkondensator den gleichen Umweltbedingungen hinsichtlich Temperatur und Luftfeuchte standhalten wie die Solarzelle. Hierzu wurden umfangreiche Alterungstests durchgeführt und festgestellt, dass die Kapazität zwar bei Austrocknung des wasserhaltigen Polymer-Gel-Elektrolyten sinkt, bei einer Wiederbefeuchtung aber auch eine Regeneration des Speichers erfolgt.
Zur passenden Auslegung des elektrochemischen Doppelschichtkondensators wurde eine detaillierte Analyse der Leistungsfluktuationen durchgeführt, die mit einem eigens entwickelten MPP-Messgerät an organischen Solarmodulen gemessen wurden. Anhand der Daten wurde analysiert, welche Energiemengen für welche Zeit im Kurzzeitspeicher zwischengespeichert werden müssen, um eine effiziente Glättung der ins Netz einzuspeisenden Leistung zu erreichen. Aus der Statistik der Fluktuationen wurde eine Kapazität berechnet, die als Richtwert in die Simulationen einging und dann mit anderen Kapazitäten verglichen wurde. Neben einem idealen MPP-Tracking für verschiedene Arten von Solarzellen und Beleuchtungsprofilen konnte die Simulation auch die Kopplung aus Solarzelle und elektrochemischem Doppelschichtkondensator mit zwei verschiedenen Betriebsstrategien nachbilden. Zum einen wurde ein fester Lastwiderstand genutzt, zum anderen eine Zielspannung für den Kurzzeitspeicher und somit auch die Solarzelle vorgegeben und der Lastwiderstand variabel so angepasst, dass die Zielspannung gehalten wird. Beide Betriebsmethoden haben einen Energieverlust gegenüber der MPP-getrackten Solarzelle zu verzeichnen, führen aber zu einer Glättung der Leistung des gekoppelten Systems. Die Simulation konnte für Siliziumsolarzellen mit einem Demonstratorversuch im Labor und für organische Solarzellen unter realen Bedingungen validiert werden.
Insgesamt ergibt sich eine vielversprechende Glättung der Leistungsfluktuationen von Solarzellen durch den Einsatz von elektrochemischen Doppelschichtkondensatoren.
Die vorliegende Arbeit untersucht die Struktur und die Veränderung des akademischen Selbstkonzepts angehender Physiklehrkräfte. Als selbstbezogene Kognition wird es als eine Grundlage der professionellen Identität von Lehrkräften verstanden. Selbstkonzepte bilden sich aus der Kategorisierung selbstrelevanter Informationen, die eine Person in verschiedenen Kontexten sammelt, bewertet und interpretiert. Für angehende Lehrkräfte wird der professionelle Kontext durch die Struktur und die Inhalte des Lehramtsstudiums gebildet. Daraus folgt die erste zentrale Hypothese der Arbeit: Im akademischen Selbstkonzept angehender Physiklehrkräfte lassen sich drei Facetten empirisch trennen, die den inhaltlichen Domänen des Lehramtsstudiums entsprechen. Demnach strukturieren Studierende ihre Fähigkeitszuschreibungen in Bezug auf (1) die Fachwissenschaft Physik, (2) die Fachdidaktik Physik sowie (3) die Erziehungswissenschaften.
Konkrete Erfahrungen bilden als Quelle selbstrelevanter Informationen die Basis für den Aufbau bzw. die Veränderung von domänenspezifischen Selbstkonzeptfacetten. Sie stabilisieren das Selbstkonzept, falls sie im Einklang mit dem bisherigen Bild der Person von sich selbst stehen bzw. können eine Veränderung des Selbstkonzepts initiieren, wenn sie sich nicht konsistent in dieses Bild einfügen lassen. Vor diesem Hintergrund folgt die zweite zentrale Hypothese der vorliegenden Arbeit: Während der Praxisphasen des Studiums verändert sich das akademische Selbstkonzept der Studierenden.
Die Hypothesen werden mit Ansätzen der latenten Modellierung untersucht. Mittels konfirmatorischer Faktorenanalyse wird die empirische Trennbarkeit der drei angenommenen Facetten bestätigt. In einer querschnittlichen Betrachtung zeigt sich ein deutlicher Einfluss des Geschlechts der Studierenden auf den Zusammenhang zwischen ihrem fachdidaktischen Selbstkonzept und ihrer bisherigen Praxiserfahrung. Die längsschnittliche Analyse der Veränderung des Selbstkonzepts während einer zentralen fachdidaktischen Lehrveranstaltung mit ausgeprägten Praxisphasen (Lehr-Lern-Labor-Seminar) wird mit einem latenten Wachstumskurvenmodell untersucht. Das auf die Fachdidaktik Physik bezogene Selbstkonzept steigt während des Seminars leicht an, wenn die Studierenden zum Seminarbeginn bereits über Praxiserfahrung verfügten. Fehlt diese, so ist ein leichter Rückgang in der Ausprägung des Selbstkonzepts feststellbar, der für weibliche Studierende stärker ausfällt als für ihre männlichen Kommilitonen.
Mit den Befunden zu Struktur und Veränderung des akademischen Selbstkonzepts angehender Physiklehrkräfte trägt die vorliegende Arbeit dazu bei, die überwiegend qualitativen Analysen von Identitätsprozessen bei Studierenden durch den Einsatz eines theoretisch fundierten und klar umrissenen Konstrukts um eine quantitative Perspektive zu ergänzen.
Ziel dieser Arbeit war es, neue quantitative Messmethoden am Kleintier, insbesondere die Perfusionsmessung am Mäuseherz, zu etablieren. Hierfür wurde eine retrospektiv getriggerte T1-Messmethode entwickelt. Da bei retrospektiven Methoden keine vollständige Abtastung garantiert werden kann, wurde ein Verfahren gefunden, das mit Hilfe von Vorwissen über das gemessene Modell sehr effizient die fehlenden Daten interpolieren kann.
Mit Hilfe dieser Technik werden dynamische T1-Messungen mit hoher räumlicher und zeitlicher Auflösung möglich.
Dank der hohen Genauigkeit der T1-Messmethode lässt sich diese für die nichtinvasive Perfusionsmessung am Mäuseherz mittels der FAIR-ASL-Technik nutzen. Da auf Grund der retrospektiven Triggerung Daten an allen Positionen im Herzzyklus akquiriert werden, konnten T1- und Perfusionskarten nach der Messung zu beliebigen Punkten im Herzzyklus rekonstruiert werden.
Es bietet sich an, Techniken, die für die myokardiale Perfusion angewandt werden, auch für die Nierenperfusionsmessung zu verwenden, da die Niere in ihrer Rinde (Cortex) eine ähnlich hohe
Perfusion aufweist wie das Myokard. Gleichzeitig führen Nierenerkrankungen oftmals zu schlechter Kontrastmittelverträglichkeit, da diese bei Niereninsuffizienz u.U. zu lange im Körper verweilen und die Niere weiter schädigen. Auch deshalb sind die kontrastmittelfreien Spin-Labeling-Methoden hier interessant. Die FAIR-ASL-Technik ist jedoch an Mäusen in koronaler Ansicht für die Niere schlecht geeignet auf Grund des geringen Unterschieds zwischen dem markierten und dem Vergleichsexperiment. Als Lösung für dieses Problem wurde vorgeschlagen, die Markierungsschicht senkrecht zur Messschicht zu orientieren. Hiermit konnte die Sensitivität gesteigert und gleichzeitig die Variabilität der Methode deutlich verringert werden.
Mit Hilfe von kontrastmittelgestützten Messungen konnten auch das regionale Blutvolumen und das Extrazellularvolumen bestimmt werden. In den letzten Jahren hat das Interesse an Extrazellularvolumenmessungen zugenommen, da das Extrazellularvolumen stellvertretend für diffuse Fibrose gemessen werden kann, die bis dahin nichtinvasiven Methoden nicht zugänglich war. Die bisher in der Literatur verwendeten Quantifizierungsmethoden missachten den Einfluss, den das Hämatokrit auf den ECV-Wert hat. Es wurde eine neue Korrektur vorgeschlagen, die allerdings zusätzlich zur ECV-Messung auch eine RBV-Messung benötigt. Durch gleichzeitige Messung beider Volumenanteile konnte auch erstmals das Extrazellulare-Extravaskuläre-Volumen bestimmt werden.
Eine gänzlich andere kontrastmittelbasierte Methode in der MRT ist die Messung des chemischen Austauschs. Hierbei wirkt das Kontrastmittel nicht direkt beschleunigend auf die Relaxation, sondern der Effekt des Kontrastmittels wird gezielt durch HF-Pulse an- und ausgeschaltet. Durch den chemischen Austausch kann die Auswirkung der HF-Pulse akkumuliert werden. Bislang wurde bei solchen Messungen ein negativer Kontrast erzeugt, der ohne zusätzliche Vergleichsmessungen schwer detektierbar war. Im letzten Teil dieser Arbeit konnte eine neue Methode zur Messung des chemischen Austauschs gezeigt werden, die entgegen der aus der Literatur bekannten Methoden nicht Sättigung, sondern Anregung überträgt. Diese Änderung erlaubt es, einen echten positiven chemischen Austausch-Kontrast zu erzeugen, der nicht zwingend ein Vergleichsbild benötigt. Gleichzeitig ermöglicht die Technik, dadurch dass Anregung übertragen wird, die Phase der Anregung zu kontrollieren und nutzen. Eine mögliche Anwendung ist die Unterscheidung verschiedener Substanzen in einer Messung.
In der Summe wurden im Rahmen dieser Arbeit verschiedene robuste Methoden eta-
bliert, die die Möglichkeiten der quantitativen physiologischen MRT erweitern.
Herzkreislauferkrankungen stellen die häufigsten Todesursachen in den Industrienationen dar. Die Entwicklung nichtinvasiver Bildgebungstechniken mit Hilfe der Magnetresonanz-Tomografie (MRT) ist daher von großer Bedeutung, um diese Erkrankungen frühzeitig zu erkennen und um die Entstehungsmechanismen zu erforschen. In den letzten Jahren erwiesen sich dabei genetisch modifzierte Mausmodelle als sehr wertvoll, da sich durch diese neue Bildgebungsmethoden entwickeln lassen und sich der Krankheitsverlauf im Zeitraffer beobachten lässt.
Ein große Herausforderung der murinen MRT-Bildgebung sind die die hohen Herzraten und die schnelle Atmung. Diese erfordern eine Synchronisation der Messung mit dem Herzschlag und der Atmung des Tieres mit Hilfe von Herz- und Atemsignalen. Konventionelle Bildgebungstechniken verwenden zur Synchronisation mit dem Herzschlag EKG Sonden, diese sind jedoch insbesondere bei hohen Feldstärken (>3 T) sehr störanfällig. In dieser Arbeit wurden daher neue Bildgebungsmethoden entwickelt, die keine externen Herz- und Atemsonden benötigen, sondern das MRT-Signal selbst zur Bewegungssynychronisation verwenden. Mit Hilfe dieser Technik gelang die Entwicklung neuer Methoden zur Flussbildgebung und der 3D-Bildgebung, mit denen sich das arterielle System der Maus qualitativ und quantitativ erfassen lässt, sowie einer neuen Methode zur Quantisierung der longitudinalen Relaxationszeit T1 im murinen Herzen. Die in dieser Arbeit entwickelten Methoden ermöglichen robustere Messungen des Herzkreislaufsystems. Im letzten Kapitel konnte darüber hinaus gezeigt werden dass sich die entwickelten Bildgebungstechniken in der Maus auch auf die humane Bildgebung übertragen lassen.
Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.
Neuerungen in Bildungssystemen können nur erfolgreich sein, wenn sie planmäßig implementiert werden. Maßgeblich ist hierfür, dass die Lehrkräfte über die entsprechenden professionellen Kompetenzen verfügen. Die vorliegende Arbeit untersucht diesen Zusammenhang am Beispiel der Implementation von Seminarfächern im bayerischem Gymnasium. Es wird identifiziert, welche neuen Herausforderungen Chemie-Lehrkräfte mit Einführung der Wissenschaftspropädeutischen (W-) und Projekt-Seminare (P-) bewältigen müssen. Aus Interviews mit Lehrkräften wurden per qualitativer Inhaltsanalyse nach Mayring die Anforderungen an das Professionswissen der Lehrkräfte identifiziert. Für die W-Seminare konnte dargestellt werden, dass eine erfolgreiche Wissenschaftspropädeutik häufig an fehlendem Fachwissen der Lehrkräfte zu Nature of Science Inquiry (NOSI) scheiterte. Analog fehlte den Lehrkräften in den P-Seminaren Fachwissen zu Projektmanagement, sodass sie dies weder umsetzten, noch erfolgreich vermitteln konnten. Um die Lehrkräfte bei der Bewältigung der Herausforderungen zu unterstützen, wurden vielfältige Möglichkeiten der Kooperation von Seminarfächern mit der Universität als externem Partner erprobt. Methodenwerkzeuge für eine systematische Wissenschaftspropädeutik wurden entwickelt und im Rahmen von Lehrerfortbildungen weitergegeben. Weiterhin wurde ein Lehr-Lern-Labor „Analyseverfahren der Chemie“ für W-Seminare konzipiert und wiederholt erfolgreich durchgeführt. Damit wurden Erkenntnisse der empirischen Studie in nachweislich praxistaugliche Konzepte umgesetzt, die die erfolgreiche Implementation der Seminarfächer unterstützen können.
Ziel dieser Arbeit war es, das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung mittels der MRT darzustellen. Um trotz der niedrigen Protonendichte der Lunge und der geforderten hohen Auflösung ausreichend Signal für eine verlässliche Diagnostik zu erhalten, sind Aufnahmezeiten von einigen Minuten nötig. Um die Untersuchung für den Patienten angenehmer zu gestalten oder auf Grund der eingeschränkten Fähigkeit eines Atemstopps überhaupt erst zu ermöglichen, war eine Anforderung, die Aufnahmen in freier Atmung durchzuführen. Dadurch entstehen allerdings Bewegungsartefakte, die die Diagnostik stark beeinträchtigen
und daher möglichst vermieden werden müssen. Für eine Bewegungskompensation
der Daten muss die auftretende Atembewegung detektiert werden. Die Bewegungsdetektion
kann durch externe Messgeräte (Atemgurt oder Spirometer) oder durch eine
zusätzliche Anregungen erfolgen (konventionelle Navigatoren) erfolgen. Nachteile
dieser Methoden bestehen darin, dass die Bewegung während der Atmung nicht
direkt verfolgt wird, dass elektronische Messgeräte in die Nähe des Tomographen
gebracht werden und das die Patienten zusätzlich vorbereitet und eingeschränkt
werden. Des Weiteren erfordert eine zusätzliche Anregung extra Messzeit und kann
unter Umständen die Magnetisierung auf unterwünschte Weise beeinflussen.
Um die angesprochenen Schwierigkeiten der Bewegungsdetektion zu umgehen,
wurden in dieser Arbeit innerhalb einer Anregung einer 3d FLASH-Sequenz sowohl
Bilddaten- als auch Navigatordaten aufgenommen. Als Navigator diente dabei das
nach der Rephasierung aller bildgebenden Gradienten entstehende Signal (DC Signal).
Das DC Signal entspricht dabei der Summe aller Signale, die mit einem bestimmten
Spulenelement detektiert werden können. Bewegt sich beispielsweise die Leber
bedingt durch die Atmung in den Sensitivitätsbereich eines Spulenelementes, wird
ein stärkeres DC Signal detektiert werden. Je nach Positionierung auf dem Körper
kann so die Atembewegung mit einzelnen räumlich lokalisierten Spulenelementen
nachverfolgt werden. Am DC Signalverlauf des für die Bewegungskorrektur ausgewählten
Spulenelementes sind dann periodische Signalschwankungen zu erkennen.
Zusätzlich können aus dem Verlauf Expirations- von Inspirationszuständen unterschieden
werden, da sich Endexpirationszustände im Regelfall durch eine längere
Verweildauer auszeichnen.
Grundsätzlich kann das DC Signal vor oder nach der eigentlichen Datenaufnahme
innerhalb einer Anregung aufgenommen werden. Auf Grund der kurzen Relaxationszeit
T∗2 des Lungengewebes fällt das Signal nach der RF Anregung sehr schnell ab. Um
möglichst viel Signal zu erhalten sollten, wie in dieser Arbeit gezeigt wurde, innerhalb einer Anregung zuerst die Bilddaten und danach die Navigatordaten aufgenommen
werden. Dieser Ansatz führt zu einer Verkürzung der Echozeit TE um 0.3 ms und
damit zu einem SNR Gewinn von etwa 20 %. Gleichzeitig ist das verbleibende Signal
nach der Datenakquisition und Rephasierung der bildgebenden Gradienten noch
ausreichend um die Atembewegung zu erfassen und somit eine Bewegungskorrektur
der Daten (Navigation) zu ermöglichen.
Um eine retrospektive Bewegungskorrektur durchführen zu können, müssen Akzeptanzbedingungen
(Schwellenwerte) für die Datenauswahl festgelegt werden. Bei
der Wahl des Schwellenwertes ist darauf zu achten, dass weder zu wenige noch zu
viele Daten akzeptiert werden. Akzeptiert man sehr wenige Daten, zeichnen sich die
Rekonstruktionen durch einen scharfen Übergang zwischen Lunge und Diaphragma
aus, da man sehr wenig Bewegung in den Rekonstruktionen erlaubt. Gleichzeitig
erhöht sich allerdings das Risiko, dass nach der Navigation Linien fehlen. Dies führt
zu Einfaltungsartefakten, die in Form von gestörten Bildintensitäten in den Rekonstruktionen
zu sehen sind und die diagnostische Aussagekraft einschränken. Um
Einfaltungsartefakte zu vermeiden sollte der Schwellenwert so gewählt werden, dass
nach der Datenauswahl keine Linien fehlen. Aus dieser Anforderung lässt sich ein
maximaler Schwellenwert ableiten. Akzeptiert man dagegen sehr viele Daten, zeichnen
sich die Rekonstruktionen durch erhöhtes Signal und das vermehrte Auftreten
von Bewegungsartefakten aus. In diesem Fall müsste der Arzt entscheiden, ob Bewegungsartefakte
die Diagnostik zu stark beeinflussen. Wählt man den Schwellenwert
so, dass weder Linien fehlen noch zu viel Bewegung erlaubt wird, erhält man Rekonstruktionen
die sich durch einen scharfen Diaphragmaübergang auszeichnen und in
denen noch kleinste Gefäße auch in der Nähe des Diaphragmas deutlich zu erkennen
sind. Hierfür haben sich Schwellenwerte, die zu einer Datenakzeptanz von ca. 40 %
führen als günstig erwiesen.
Um Einfaltungsartefakte auf Grund der retrospektiven Datenauswahl zu verhindern,
muss das Bildgebungsvolumen mehrfach abgetastet werden. Dadurch wird
gewährleistet, dass für die letztendliche Rekonstruktion ausreichend Daten zur Verfügung
stehen, wobei mehrfach akzeptierte Daten gemittelt werden. Dies spielt auf
Grund der niedrigen Protonendichte der Lunge eine wesentliche Rolle in der Rekonstruktion
hochaufgelöster Lungendatensätze. Weiterhin führt das Mitteln von
mehrfach akzeptierten Daten zu einer Unterdrückung der sogenannten Ghost Artefakte,
was am Beispiel der Herzbewegung in der Arbeit gezeigt wird.
Da die Messungen unter freier Atmung durchgeführt werden und keine zusätzlichen
externen Messgeräte angeschlossen werden müssen, stellte die Untersuchung
für die Patienten in dieser Arbeit kein Problem dar. Im ersten Teil dieser wurde Arbeit
gezeigt, dass sich mit Hilfe des DC Signales als Navigator und einer retrospektiven
Datenauswahl das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung
von beispielsweise 1.6 x 1.6 x 4 mm3 innerhalb von 13 min. darstellen lässt. Die Anwendbarkeit der vorgestellten Methode zur Bewegungskorrektur wurde neben
Probanden auch an Patienten demonstriert.
Da wie bereits beschrieben das Bildgebungsvolumen mehrfach abgetastet werden
muss, wiederholt sich auch die Abfolge der für die Bildgebung verantwortlichen
Gradienten periodisch. Da sich der Atemzyklus aber auch periodisch wiederholt,
kann es zu Korrelationen zwischen der Atmung und den wiederholten Messungen
kommen. Dies führt dazu, dass auch nach vielen wiederholten Messungen immer
noch größere Bereiche fehlender Linien im k-Raum bleiben, was zu Artefakten in
den Rekonstruktionen führt. Dies konnte im Falle der konventionellen Bewegungskorrektur
in den Gatingmasken, die die Verteilung und Häufigkeit der einzelnen
akzeptierten Phasenkodierschritte im k-Raum zeigen, beobachtet werden.
Da eine vorsätzliche Unterbrechung der Atemperiodizität (der Patient wird dazu
angehalten, seine Atemfrequenz während der Messung absichtlich zu variieren) zur
Vermeidung der angesprochenen Korrelationen nicht in Frage kommt, musste die
Periodizität in der Datenaufnahme unterbrochen werden. In dieser Arbeit wurde
dies durch eine quasizufällige Auswahl von Phasen- und Partitionskodiergradienten
erreicht, da Quasizufallszahlen so generiert werden, dass sie unabhängig von ihrer
Anzahl einen Raum möglichst gleichförmig ausfüllen. Die quasizufällige Datenaufnahme
führt deshalb dazu, das sowohl akzeptierte als auch fehlende Linien nach der
Bewegungskorrektur homogen im k-Raum verteilt auftreten.
Vergleicht man das auftreten von Ghosting zeichnen sich die quasizufälligen Rekonstruktionen
im Vergleich zur konventionellen Datenaufnahme durch eine verbesserte
Reduktion von Ghost Artefakten aus. Dies ist auf die homogene Verteilung mehrfach
akzeptierter Linien im k-Raum zurückzuführen. Die homogenere Verteilung von
fehlenden Linien im k-Raum führt weiterhin zu einer wesentlich stabileren Rekonstruktion
fehlender Linien mit parallelen MRT-Verfahren (z.B. iterativem Grappa).
Dies wird umso deutlicher je höher der Anteil fehlender Linien im k-Raum wird. Im
Falle der konventionellen Datenaufnahme werden die zusammenhängenden Bereiche
fehlender Linien immer größer, was eine erfolgreiche Rekonstruktion mit iterativem
Grappa unmöglich macht. Im Falle der quasizufälligen Datenaufnahme dagegen
können auch Datensätze in denen 40% der Linien fehlen einfaltungsartefaktfrei
rekonstruiert werden.
Im weiteren Verlauf der Arbeit wurde gezeigt, wie die Stabilität der iterativen Grappa
Rekonstruktion im Falle der quasizufälligen Datenaufnahme für eine erhebliche
Reduktion der gesamten Messzeit genutzt werden kann. So ist in einer Messzeit von
nur 74s die Rekonstruktion eines artefaktfreien und bewegungskorrigierten dreidimensionalen
Datensatzes der menschlichen Lunge mit einer Auflösung von 2 x 2 x
5 mm3 möglich. Des Weiteren erlaubt die quasizufällige Datenaufnahme in Kombination
mit iterativem Grappa die Rekonstruktion von Datensätzen unterschiedlicher
Atemphasen von Inspiration bis Expiration (4D Bildgebung). Nach einer Messzeit
von 15min. wurden 19 unterschiedliche Atemzustände rekonstruiert, wobei sich der Anteil der fehlenden Linien zwischen 0 und 20 % lag. Im Falle der konventionellen
Datenaufnahme wäre eine wesentlich längere Messzeit nötig gewesen, um ähnliche
Ergebnisse zu erhalten.
Zum Schluss soll noch ein Ausblick über mögliche Weiterentwicklungen und Anwendungsmöglichkeiten,
die sich aus den Erkenntnissen dieser Arbeit ergeben haben,
gegeben werden. So könnte das quasizufällige Aufnahmeschema um eine Dichtegewichtung
erweitert werden. Hierbei würde der zentrale k-Raum Bereich etwas
häufiger als die peripheren Bereiche akquiriert werden. Dadurch sollte die iterative
Grappa Rekonstruktion noch stabiler funktionieren und Ghost Artefakte besser reduziert
werden. Die Verteilung der Linien sollte allerdings nicht zu inhomogen werden,
um größere Lücken im k-Raum zu vermeiden.
Darüber hinaus könnte die vorgestellte Methode der Bewegungskompensation
auch für die Untersuchung anderer Organe oder Körperteile verwendet werden.
Voraussetzung wäre lediglich das Vorhandensein dezidierter Spulenanordnungen,
mit denen die Bewegung nachverfolgt werden kann. So ist beispielsweise eine dynamische
Bildgebung des frei und aktiv bewegten Knies möglich, wobei zwischen
Beugung und Streckung durch die erste Ableitung des zentralen k-Raum Signales
unterschieden werden kann. Dies kann zusätzliche Diagnoseinformationen liefern
oder für Verlaufskontrollen nach Operationen benutzt werden [15].
Eine Weiterentwicklung mit hohem klinischen Potential könnte die Kombination
der in dieser Arbeit vorgestellten retrospektiven Bewegungskorrektur mit einer Multi-
Gradienten-Echo Sequenz darstellen. Hierzu musste die bestehende Sequenz lediglich
um eine mehrfache Abfolge von Auslesegradienten innerhalb einer Anregung erweitert
werden. Dies ermöglicht eine bewegungskorrigierte voxelweise Bestimmung der
transversalen Relaxationszeit T∗2 in hoher räumlicher Auflösung. Unter zusätzlicher
Sauerstoffgabe kann es zu einer Veränderung von T∗2 kommen, die auf den sogenannten
BOLD Effekt (Blood Oxygen Level Dependent) zurückzuführen ist. Aus dieser
Änderung könnten Rückschlüsse auf hypoxische Tumorareale gezogen werden. Da
diese eine erhöhte Strahlenresistenz aufweisen, könnte auf diese Bereiche innerhalb
des Tumors eine erhöhte Strahlendosis appliziert und so möglicherweise Behandlungsmisserfolge
reduziert werden. Gleichzeitig kann durch die 4D Bildgebung eine
mögliche Tumorbewegung durch die Atmung erfasst und diese Information ebenfalls
in der Bestrahlungsplanung benutzt werden. Die Lungen MRT könnte somit um eine
hochaufgelöste dreidimensionale funktionelle Bildgebung erweitert werden.
Im Rahmen dieser Arbeit sollten die Möglichkeiten der MR Tomographie erkundet werden bakterielle Infektionen im Zeitverlauf darzustellen. Genauer gesagt sollte das Potential der MR Tomographie anhand eines durch eine Infektion induzierten lokalisierten Abszesses unter Verwendung dreier unterschiedlicher MRT Methoden untersucht werden: Mittels nativem \(T_2\) Kontrast; der Verwendung von superparamagnetischen Eisenoxid Partieln (USPIO) als \(T_2^*\) Kontrastmittel; und dem Einsatz von Perfluorkarbonen (PFC) als \(^{19}F\) MRT Marker (siehe Kapitel 3).
Wie erwartet führte die durch die Infektion hervorgerufene Entzündung zu veränderten \(T_2\)-Zeiten, welche auf \(T_2\)-gewichteten MR Bildern eine Lokalisierung des Abszessbereiches erlauben. Jedoch eigneten sich diese Daten aufgrund der graduellen Änderung der \(T_2\)-Zeiten nicht, um eine klare Grenze zwischen Abszess und umliegendem Gewebe zu ziehen.
Superparamagnetische Eisenoxidpartikel andererseit haben als MRT Kontrastmittel bereits in den letzten Jahren ihre Fähigkeit unter Beweis gestellt Entzündungen [53, 58, 64] darzustellen. Die Anreicherung dieser Partikel am Rande des Abszesses [53], wie sie auch in unseren MR Daten zu beobachten war, erlaubte eine relativ scharfe Abgrenzung gegenüber dem umgebenden Gewebe in der chronischen Phase der Infektion (Tag 9 p.i.). Hingegen genügte die nur sehr spärlichen Anreicherung von USPIO Partikeln in der akuten Phase der Infektion (Tag 3 p.i.) nicht für eine entsprechende Abgrenzung [58].
Aufgrund der sehr geringen biologischen Häufigkeit und den sehr kurzen Relaxationszeiten von endogenem Fluor eignen sich Perfluorkarbone als Markersubstanz in der MR Tomographie von biologischen Systemen. Insbesondere da PFC Emulsionen durch phagozytierende Zellen aufgenommen werden und im Bereich von Entzündungen akkumulieren [30, 59]. In dieser Arbeit konnte anhand der erhaltenen MRT Daten eine Akkumulation von Perfluorkarbonen nicht nur in der chronischen Phase, sondern auch in der akuten Phase nachgewiesen werden. Diese Daten erlauben somit zu allen untersuchten Zeitpunkten eine Abgrenzung zwischen Infektion und umliegenden Gewebe.
Aufgrund der besagten Vorteile wurden die Perfluorkarbone gewählt, um die Möglichkeiten der MR Tomographie zu testen, quantitative Informationen über die schwere der Infektion zu liefern. Als Referenz für die Bakterienbelastung wurden die Biolumineszenzbildgebung (BLI) [49, 50] und die Standardmethode zur Bestimmung der Bakterienbelastung cfu (koloniebildenden Einheiten) herangezogen. Eine Gegenüberstellung der zeitlichen Verläufe der durch die Biolumineszenzbildgebung und durch die cfu erhaltenen Daten liefert eine qualitative Übereinstimmung mit den durch die 19F MR Tomographie erhaltenen Daten. Dies trifft hierbei sowohl auf die über den gesamten Infektionsbereich hinweg summierten Signalamplituden, als auch auf das Volumen zu, in dem Fluor am Ort der Infektion akkumuliert wurde. Im Gegensatz zur Methode der cfu Bestimmung sind die MR Tomographie und die Biolumineszenzbildgebung nicht invasiv und erlauben die Verfolgung des Infektionsverlaufes an einem einzelnen Individuum. Hierzu benötigt, im Gegensatz zur MR Tomographie, die Methode der Biolumineszenzbildgebung jedoch einen speziellen Pathogenstamm. Darüber hinaus ist hervorzuheben, dass die MR Tomographie zudem die Möglichkeit bietet auch morphologische Informationen über den Infektionsbereich und seine Umgebung zu akquirieren.
Gerade weil jede dieser Methoden die mit der Infektion einhergehenden Prozesse aus einer leicht anderen Blickrichtung betrachtet, erscheint es sinnvoll diese etablierte Untersuchungsplattform bestehend aus MRT, BLI und cfu über die in dieser Arbeit bearbeitete Fragestellung hinaus näher zu untersuchen. Insbesondere der Aspekt inwieweit die drei Methoden sich gegenseitig ergänzen, könnte einen tieferen Einblick in die Wechselwirkung zwischen Pathogen und Wirt erlauben.
Auch wenn für die betrachtete Fragestellung bereits der hierdurchgeführte semiquanitative Ansatz zur Bestimmung der relativen Fluormengen am Ort der Infektion ausreichte, so ist doch im Allgemeinen wünschenswert probenbezogen die Sensitivität der Spule und damit die Güte der Spulenabstimmung zu bestimmen. Hierzu ist jedoch die Aufnahme von \(B_1\)-Karten unabdingbar und wird entsprechend im Kapitel 4 \(Bloch-Siegert B_1^+-Mapping\) näher addressiert. Der Schwerpunkt liegt hierbei, wie der Kapitelname bereits andeutet, auf der Bloch-Siegert Methode, die insbesondere in der präsentierten Implementierung in einer Turbo/ Multi Spin Echo Sequenz eine effiziente Nutzung der relativ langen \(T_\)2-Zeiten der Perfluorkarbone erlaubt. Da zudem die Bloch-Siegert-Methode eine rein phasenbasierte Methode ist, kann neben der aus den Daten erzeugten \(B_1\)-Karte zugleich ein unverfälschtes Magnitudenbild generiert werden, wodurch eine sehr effiziente Nutzung der vorhandenen Messzeit ermöglicht wird. Diese Eigenschaft ist insbesondere für \(^{19}F\) Bildgebung von besonderem Interesse, da hier für jede Messung, aufgrund der üblicherweise relativ geringen Konzentration an Fluoratomen, lange Messzeiten benötigt werden.
Zusammenfassend konnte anhand des untersuchten Tiermodells sowohl die Fähigkeit der MR Tomographie nachgewiesen werden Infektionen im Zeitverlauf darzustellen, als auch die Fähigkeit der MR Tomographie quantitative Informationen über den Verlauf der Infektion zu liefern. Desweiteren konnte eine Möglichkeit aufgezeigt werden, welche das Potential hat in vertretbarem Zeitrahmen auch in vivo B1+-Karten auf dem Fluorkanal zu erstellen und so einen zentralen Unsicherheitsfaktor, für Relaxometry und absolute Quantifizierung von \(^{19}F\) Daten in vivo, zu beseitigen.