Refine
Has Fulltext
- yes (25)
Is part of the Bibliography
- yes (25)
Document Type
- Doctoral Thesis (25)
Language
- German (25) (remove)
Keywords
- Kernspintomografie (16)
- Kernspintomographie (4)
- Biophysik (3)
- Lunge (3)
- MRT (3)
- Magnetresonanztomographie (3)
- Relaxationszeit (3)
- 3D-Bildgebung (2)
- Compressed Sensing (2)
- Kernspinresonanz (2)
Institute
Sonstige beteiligte Institutionen
Das Ziel der vorliegenden Arbeit war die Entwicklung neuer, robuster Methoden der Spin-Lock-basierten MRT. Im Fokus stand hierbei vorerst die T1ρ-Quantifizierung des Myokards im Kleintiermodell. Neben der T1ρ-Bildgebung bietet Spin-Locking jedoch zusätzlich die Möglichkeit der Detektion ultra-schwacher, magnetischer Feldoszillationen. Die Projekte und Ergebnisse, die im Rahmen dieses Promotionsvorhabens umgesetzt und erzielt wurden, decken daher ein breites Spektrum der Spin-lock basierten Bildgebung ab und können grob in drei Bereiche unterteilt werden. Im ersten Schritt wurde die grundlegende Pulssequenz des Spin-Lock-Experimentes durch die Einführung des balancierten Spin-Locks optimiert. Der zweite Schritt war die Entwicklung einer kardialen MRT-Sequenz für die robuste Quantifizierung der myokardialen T1ρ-Relaxationszeit an einem präklinischen Hochfeld-MRT. Im letzten Schritt wurden Konzepte der robusten T1ρ-Bildgebung auf die Methodik der Felddetektion mittels Spin-Locking übertragen. Hierbei wurden erste, erfolgreiche Messungen magnetischer Oszillationen im nT-Bereich, welche lokal im untersuchten Gewebe auftreten, an einem klinischen MRT-System im menschlichen Gehirn realisiert.
In der vorliegenden Arbeit wird die Rotated-Cone-UTE-Sequenz (RC-UTE), eine 3D k-Raum-Auslesetechnik mit homogener Verteilung der Abtastdichte, vorgestellt. Diese 3D MR-Messtechnik ermöglicht die für die Detektion von schnell abfallenden Signalen notwendigen kurzen Echozeiten und weist eine höhere SNR-Effizienz als konventionelle radiale Pulssequenzen auf. Die Abtastdichte ist dabei in radialer und azimutaler Richtung angepasst. Simulationen und Messungen in vivo zeigen, dass die radiale Anpassung das T2-Blurring reduziert und die SNR-Effizienz erhöht. Die Drehung der Trajektorie in azimutale Richtung ermöglicht die Reduzierung der Unterabtastung bei gleicher Messzeit bzw. eine Reduzierung der Messzeit ohne Auflösungsverlust.
Die RC-UTE-Sequenz wurde erfolgreich für die Bildgebung des Signals des kortikalen Knochens und der Lunge in vivo angewendet. Im Vergleich mit der grundlegenden UTE-Sequenz wurden die Vorteile von RC-UTE in allen Anwendungsbeispielen aufgezeigt. Die transversalen Relaxationszeit T2* des kortikalen Knochen bei einer Feldstärke von 3.0T und der Lunge bei 1.5T und 3.0T wurde in 3D isotroper Auflösung gemessen. Außerdem wurde die Kombination von RC-UTE-Sequenz mit Methoden der Magnetisierungspräparation zur besseren Kontrasterzeugung gezeigt. Dabei wurden die Doppel-Echo-Methode, die Unterdrückung von Komponenten mit langer Relaxationszeit T2 durch Inversionspulse und der Magnetisierungstransfer-Kontrast angewendet.
Die Verwendung der RC-UTE-Sequenz für die 3D funktionelle Lungenbildgebung wird ebenfalls vorgestellt. Mit dem Ziel der umfassenden Charakterisierung der Lungenfunktion in 3D wurde die simultane Messung T1-gewichteter Bilder und quantitativer T2*-Karten für verschiedene Atemzustände an sechs Probanden durchgeführt. Mit der hier vorgestellten Methode kann die Lungenfunktion in 3D über T1-Wichtung, quantitative T2*-Messung und Rekonstruktion verschiedener Atemzustände durch Darstellung von Ventilation, Sauerstofftransport und Volumenänderung beurteilt werden.
Neben dem Wasserstoffkern 1H können auch andere Kerne für die Magnetresonanztomographie (MRT) genutzt werden. Diese sogenannten X-Kerne können komplementäre Informationen zur klassischen 1H-MRT liefern und so das Anwendungsspektrum der MRT erweitern. Die Herausforderung bei der X-Kern-Bildgebung liegt zum großen Teil in dem intrinsisch niedrigen Signal-zu-Rauschen-Verhältnis (SNR), aber auch in den spezifischen Kerneigenschaften. Um X-Kern-Bildgebung optimal betreiben zu können, müssen daher Sende-/Empfangsspulen, Messsequenzen und -methoden auf den jeweiligen Kern angepasst werden. Im Fokus dieser Dissertation standen die beiden Kerne Natrium (23Na) und Fluor (19F), für die optimierte Hardware und Methoden entwickelt wurden.
23Na spielte in dieser Arbeit vor allem wegen seiner Funktion als Biomarker für Arthrose, einer degenerativen Gelenkserkrankung, eine Rolle. Hierbei ist insbesondere die quantitative Natriumbildgebung von Bedeutung, da sich mit ihr der Knorpelzustand auch im Zeitverlauf charakterisieren lässt. Für die quantitative Messung mittels MRT ist die Kenntnis des B1-Feldes der eingesetzten MR-Spule entscheidend, denn dieses kann die relative Signalintensität stark beeinflussen und so zu Fehlern in der Quantifizierung führen. Daher wurde eine Methode zur Bestimmung des B1-Feldes untersucht und entwickelt. Dies stellte aufgrund des niedrigen SNR und der kurzen sowie biexponentiellen T2-Relaxationszeit von 23Na eine Herausforderung dar. Mit einer retrospektiven Korrekturmethode konnte eine genaue und zugleich schnelle Korrekturmethode gefunden werden.
Für die 1H- und 23Na-Bildgebung am menschlichen Knieknorpel wurden zwei praxistaugliche, doppelresonante Quadratur-Birdcage-Resonatoren entwickelt, gebaut und charakterisiert. Der Vergleich der beiden Spulen bezüglich Sensitivität und Feldhomogenität zeigte, dass der Vier-Ring-Birdcage dem Alternating-Rungs-Birdcage für den vorliegenden Anwendungsfall überlegen ist. Die in vivo erzielte Auflösung und das SNR der 23Na-Bilder waren bei beiden Spulen für die Quantifizierung der Natriumkonzentration im Knieknorpel ausreichend. Hochauflösende anatomische 1H-Bilder konnten ohne Mittelungen aufgenommen werden.
In einer umfangreichen Multiparameter-MR-Tierstudie an Ziegen wurde der Verlauf einer chirurgisch induzierten Arthrose mittels 23Na- und 1H-Bildgebungsmethoden untersucht. Hierbei kamen dGEMRIC, T1ρ-Messung und quantitative Natrium-MRT zum Einsatz. Trotz des im Vergleich zum Menschen dünneren Ziegenknorpels, der niedrigen Feldstärke von 1,5 T und den auftretenden Ödemen konnten erstmals diese MR-Parameter über den Studienverlauf hinweg an den gleichen Versuchstieren und zu den gleichen Zeitpunkten ermittelt werden. Die Ergebnisse wurden verglichen und die ermittelten Korrelationen entsprechen den zugrundeliegenden biochemischen Mechanismen. Die im Rahmen dieser Studie entwickelten Methoden, Bildgebungsprotokolle und Auswertungen lassen sich auf zukünftige Humanstudien übertragen.
Die mit klinischen Bildgebungssequenzen nicht zugängliche kurze Komponente der biexponentiellen T2*-Relaxationszeit von 23Na konnte mittels einer radialen Ultra-Short-Echo-Time-Sequenz bestimmt werden. Hierzu wurde eine Multi-Echo-Sequenz mit einem quasizufälligen Abtastschema kombiniert. Hierdurch gelang es, die kurze und lange T2*-Komponente des patellaren Knorpels in vivo zu bestimmen.
19F wird in der MRT wegen seiner hohen relativen Sensitivität und seines minimalen, körpereigenen Hintergrundsignals als Marker eingesetzt. Zur Detektion der niedrigen in-vivo-Konzentrationen der Markersubstanzen werden hochsensitive Messspulen benötigt.
Für die 19F-Bildgebung an Mäusen wurde eine Birdcage-Volumenspule entwickelt, die sowohl für 19F als auch 1H in Quadratur betrieben werden kann, ohne Kompromisse in Sensitivität oder Feldhomogenität gegenüber einer monoresonanten Spule eingehen zu müssen. Dies gelang durch eine verschiebbare Hochfrequenzabschirmung, mit der die Resonanzfrequenz des Birdcage verändert werden kann. Es konnte weiterhin gezeigt werden, dass die Feldverteilungen bei 1H und 19F im Rahmen der Messgenauigkeit identisch sind und so der 1H-Kanal für die Pulskalibrierung und die Erstellung von B1-Karten für die 19F-Bildgebung genutzt werden kann. Hierdurch kann die Messzeit deutlich reduziert werden.
Ein grundsätzliches Problemfeld stellt die Korrelation unterschiedlicher Bildgebungsmodalitäten dar. In der MRT betrifft das häufig die Korrelation von in-/ex-vivo-MR-Daten und den dazugehörigen Lichtbildaufnahmen an histologischen Schnitten. In dieser Arbeit wurde erstmals erfolgreich eine 1H- und 19F-MR-Messung an einem histologischen Schnitt vorgenommen. Durch die Verwendung einer optimierten 1H/19F-Oberflächenspule konnte die 19F-Signalverteilung in einer dünnen Tumorscheibe in akzeptabler Messzeit aufgenommen werden. Da der gleiche Schnitt sowohl mit Fluoreszenzmikroskopie als auch mit MRT gemessen wurde, konnten Histologie und MR-Ergebnisse exakt korreliert werden.
Zusammenfassend konnten in dieser Arbeit durch Hardware- und Methodenentwicklung zahlreiche neue Aspekte der 19F- und 23Na-MRT beleuchtet werden und so zukünftige Anwendungsfelder erschlossen werden.
Herzkreislauferkrankungen stellen die häufigsten Todesursachen in den Industrienationen dar. Die Entwicklung nichtinvasiver Bildgebungstechniken mit Hilfe der Magnetresonanz-Tomografie (MRT) ist daher von großer Bedeutung, um diese Erkrankungen frühzeitig zu erkennen und um die Entstehungsmechanismen zu erforschen. In den letzten Jahren erwiesen sich dabei genetisch modifzierte Mausmodelle als sehr wertvoll, da sich durch diese neue Bildgebungsmethoden entwickeln lassen und sich der Krankheitsverlauf im Zeitraffer beobachten lässt.
Ein große Herausforderung der murinen MRT-Bildgebung sind die die hohen Herzraten und die schnelle Atmung. Diese erfordern eine Synchronisation der Messung mit dem Herzschlag und der Atmung des Tieres mit Hilfe von Herz- und Atemsignalen. Konventionelle Bildgebungstechniken verwenden zur Synchronisation mit dem Herzschlag EKG Sonden, diese sind jedoch insbesondere bei hohen Feldstärken (>3 T) sehr störanfällig. In dieser Arbeit wurden daher neue Bildgebungsmethoden entwickelt, die keine externen Herz- und Atemsonden benötigen, sondern das MRT-Signal selbst zur Bewegungssynychronisation verwenden. Mit Hilfe dieser Technik gelang die Entwicklung neuer Methoden zur Flussbildgebung und der 3D-Bildgebung, mit denen sich das arterielle System der Maus qualitativ und quantitativ erfassen lässt, sowie einer neuen Methode zur Quantisierung der longitudinalen Relaxationszeit T1 im murinen Herzen. Die in dieser Arbeit entwickelten Methoden ermöglichen robustere Messungen des Herzkreislaufsystems. Im letzten Kapitel konnte darüber hinaus gezeigt werden dass sich die entwickelten Bildgebungstechniken in der Maus auch auf die humane Bildgebung übertragen lassen.
Ziel dieser Arbeit war es, neue quantitative Messmethoden am Kleintier, insbesondere die Perfusionsmessung am Mäuseherz, zu etablieren. Hierfür wurde eine retrospektiv getriggerte T1-Messmethode entwickelt. Da bei retrospektiven Methoden keine vollständige Abtastung garantiert werden kann, wurde ein Verfahren gefunden, das mit Hilfe von Vorwissen über das gemessene Modell sehr effizient die fehlenden Daten interpolieren kann.
Mit Hilfe dieser Technik werden dynamische T1-Messungen mit hoher räumlicher und zeitlicher Auflösung möglich.
Dank der hohen Genauigkeit der T1-Messmethode lässt sich diese für die nichtinvasive Perfusionsmessung am Mäuseherz mittels der FAIR-ASL-Technik nutzen. Da auf Grund der retrospektiven Triggerung Daten an allen Positionen im Herzzyklus akquiriert werden, konnten T1- und Perfusionskarten nach der Messung zu beliebigen Punkten im Herzzyklus rekonstruiert werden.
Es bietet sich an, Techniken, die für die myokardiale Perfusion angewandt werden, auch für die Nierenperfusionsmessung zu verwenden, da die Niere in ihrer Rinde (Cortex) eine ähnlich hohe
Perfusion aufweist wie das Myokard. Gleichzeitig führen Nierenerkrankungen oftmals zu schlechter Kontrastmittelverträglichkeit, da diese bei Niereninsuffizienz u.U. zu lange im Körper verweilen und die Niere weiter schädigen. Auch deshalb sind die kontrastmittelfreien Spin-Labeling-Methoden hier interessant. Die FAIR-ASL-Technik ist jedoch an Mäusen in koronaler Ansicht für die Niere schlecht geeignet auf Grund des geringen Unterschieds zwischen dem markierten und dem Vergleichsexperiment. Als Lösung für dieses Problem wurde vorgeschlagen, die Markierungsschicht senkrecht zur Messschicht zu orientieren. Hiermit konnte die Sensitivität gesteigert und gleichzeitig die Variabilität der Methode deutlich verringert werden.
Mit Hilfe von kontrastmittelgestützten Messungen konnten auch das regionale Blutvolumen und das Extrazellularvolumen bestimmt werden. In den letzten Jahren hat das Interesse an Extrazellularvolumenmessungen zugenommen, da das Extrazellularvolumen stellvertretend für diffuse Fibrose gemessen werden kann, die bis dahin nichtinvasiven Methoden nicht zugänglich war. Die bisher in der Literatur verwendeten Quantifizierungsmethoden missachten den Einfluss, den das Hämatokrit auf den ECV-Wert hat. Es wurde eine neue Korrektur vorgeschlagen, die allerdings zusätzlich zur ECV-Messung auch eine RBV-Messung benötigt. Durch gleichzeitige Messung beider Volumenanteile konnte auch erstmals das Extrazellulare-Extravaskuläre-Volumen bestimmt werden.
Eine gänzlich andere kontrastmittelbasierte Methode in der MRT ist die Messung des chemischen Austauschs. Hierbei wirkt das Kontrastmittel nicht direkt beschleunigend auf die Relaxation, sondern der Effekt des Kontrastmittels wird gezielt durch HF-Pulse an- und ausgeschaltet. Durch den chemischen Austausch kann die Auswirkung der HF-Pulse akkumuliert werden. Bislang wurde bei solchen Messungen ein negativer Kontrast erzeugt, der ohne zusätzliche Vergleichsmessungen schwer detektierbar war. Im letzten Teil dieser Arbeit konnte eine neue Methode zur Messung des chemischen Austauschs gezeigt werden, die entgegen der aus der Literatur bekannten Methoden nicht Sättigung, sondern Anregung überträgt. Diese Änderung erlaubt es, einen echten positiven chemischen Austausch-Kontrast zu erzeugen, der nicht zwingend ein Vergleichsbild benötigt. Gleichzeitig ermöglicht die Technik, dadurch dass Anregung übertragen wird, die Phase der Anregung zu kontrollieren und nutzen. Eine mögliche Anwendung ist die Unterscheidung verschiedener Substanzen in einer Messung.
In der Summe wurden im Rahmen dieser Arbeit verschiedene robuste Methoden eta-
bliert, die die Möglichkeiten der quantitativen physiologischen MRT erweitern.
Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen.
Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen.
Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt.
Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist.
Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt.
Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war.
Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist.
Im Rahmen dieser Arbeit sollten die Möglichkeiten der MR Tomographie erkundet werden bakterielle Infektionen im Zeitverlauf darzustellen. Genauer gesagt sollte das Potential der MR Tomographie anhand eines durch eine Infektion induzierten lokalisierten Abszesses unter Verwendung dreier unterschiedlicher MRT Methoden untersucht werden: Mittels nativem \(T_2\) Kontrast; der Verwendung von superparamagnetischen Eisenoxid Partieln (USPIO) als \(T_2^*\) Kontrastmittel; und dem Einsatz von Perfluorkarbonen (PFC) als \(^{19}F\) MRT Marker (siehe Kapitel 3).
Wie erwartet führte die durch die Infektion hervorgerufene Entzündung zu veränderten \(T_2\)-Zeiten, welche auf \(T_2\)-gewichteten MR Bildern eine Lokalisierung des Abszessbereiches erlauben. Jedoch eigneten sich diese Daten aufgrund der graduellen Änderung der \(T_2\)-Zeiten nicht, um eine klare Grenze zwischen Abszess und umliegendem Gewebe zu ziehen.
Superparamagnetische Eisenoxidpartikel andererseit haben als MRT Kontrastmittel bereits in den letzten Jahren ihre Fähigkeit unter Beweis gestellt Entzündungen [53, 58, 64] darzustellen. Die Anreicherung dieser Partikel am Rande des Abszesses [53], wie sie auch in unseren MR Daten zu beobachten war, erlaubte eine relativ scharfe Abgrenzung gegenüber dem umgebenden Gewebe in der chronischen Phase der Infektion (Tag 9 p.i.). Hingegen genügte die nur sehr spärlichen Anreicherung von USPIO Partikeln in der akuten Phase der Infektion (Tag 3 p.i.) nicht für eine entsprechende Abgrenzung [58].
Aufgrund der sehr geringen biologischen Häufigkeit und den sehr kurzen Relaxationszeiten von endogenem Fluor eignen sich Perfluorkarbone als Markersubstanz in der MR Tomographie von biologischen Systemen. Insbesondere da PFC Emulsionen durch phagozytierende Zellen aufgenommen werden und im Bereich von Entzündungen akkumulieren [30, 59]. In dieser Arbeit konnte anhand der erhaltenen MRT Daten eine Akkumulation von Perfluorkarbonen nicht nur in der chronischen Phase, sondern auch in der akuten Phase nachgewiesen werden. Diese Daten erlauben somit zu allen untersuchten Zeitpunkten eine Abgrenzung zwischen Infektion und umliegenden Gewebe.
Aufgrund der besagten Vorteile wurden die Perfluorkarbone gewählt, um die Möglichkeiten der MR Tomographie zu testen, quantitative Informationen über die schwere der Infektion zu liefern. Als Referenz für die Bakterienbelastung wurden die Biolumineszenzbildgebung (BLI) [49, 50] und die Standardmethode zur Bestimmung der Bakterienbelastung cfu (koloniebildenden Einheiten) herangezogen. Eine Gegenüberstellung der zeitlichen Verläufe der durch die Biolumineszenzbildgebung und durch die cfu erhaltenen Daten liefert eine qualitative Übereinstimmung mit den durch die 19F MR Tomographie erhaltenen Daten. Dies trifft hierbei sowohl auf die über den gesamten Infektionsbereich hinweg summierten Signalamplituden, als auch auf das Volumen zu, in dem Fluor am Ort der Infektion akkumuliert wurde. Im Gegensatz zur Methode der cfu Bestimmung sind die MR Tomographie und die Biolumineszenzbildgebung nicht invasiv und erlauben die Verfolgung des Infektionsverlaufes an einem einzelnen Individuum. Hierzu benötigt, im Gegensatz zur MR Tomographie, die Methode der Biolumineszenzbildgebung jedoch einen speziellen Pathogenstamm. Darüber hinaus ist hervorzuheben, dass die MR Tomographie zudem die Möglichkeit bietet auch morphologische Informationen über den Infektionsbereich und seine Umgebung zu akquirieren.
Gerade weil jede dieser Methoden die mit der Infektion einhergehenden Prozesse aus einer leicht anderen Blickrichtung betrachtet, erscheint es sinnvoll diese etablierte Untersuchungsplattform bestehend aus MRT, BLI und cfu über die in dieser Arbeit bearbeitete Fragestellung hinaus näher zu untersuchen. Insbesondere der Aspekt inwieweit die drei Methoden sich gegenseitig ergänzen, könnte einen tieferen Einblick in die Wechselwirkung zwischen Pathogen und Wirt erlauben.
Auch wenn für die betrachtete Fragestellung bereits der hierdurchgeführte semiquanitative Ansatz zur Bestimmung der relativen Fluormengen am Ort der Infektion ausreichte, so ist doch im Allgemeinen wünschenswert probenbezogen die Sensitivität der Spule und damit die Güte der Spulenabstimmung zu bestimmen. Hierzu ist jedoch die Aufnahme von \(B_1\)-Karten unabdingbar und wird entsprechend im Kapitel 4 \(Bloch-Siegert B_1^+-Mapping\) näher addressiert. Der Schwerpunkt liegt hierbei, wie der Kapitelname bereits andeutet, auf der Bloch-Siegert Methode, die insbesondere in der präsentierten Implementierung in einer Turbo/ Multi Spin Echo Sequenz eine effiziente Nutzung der relativ langen \(T_\)2-Zeiten der Perfluorkarbone erlaubt. Da zudem die Bloch-Siegert-Methode eine rein phasenbasierte Methode ist, kann neben der aus den Daten erzeugten \(B_1\)-Karte zugleich ein unverfälschtes Magnitudenbild generiert werden, wodurch eine sehr effiziente Nutzung der vorhandenen Messzeit ermöglicht wird. Diese Eigenschaft ist insbesondere für \(^{19}F\) Bildgebung von besonderem Interesse, da hier für jede Messung, aufgrund der üblicherweise relativ geringen Konzentration an Fluoratomen, lange Messzeiten benötigt werden.
Zusammenfassend konnte anhand des untersuchten Tiermodells sowohl die Fähigkeit der MR Tomographie nachgewiesen werden Infektionen im Zeitverlauf darzustellen, als auch die Fähigkeit der MR Tomographie quantitative Informationen über den Verlauf der Infektion zu liefern. Desweiteren konnte eine Möglichkeit aufgezeigt werden, welche das Potential hat in vertretbarem Zeitrahmen auch in vivo B1+-Karten auf dem Fluorkanal zu erstellen und so einen zentralen Unsicherheitsfaktor, für Relaxometry und absolute Quantifizierung von \(^{19}F\) Daten in vivo, zu beseitigen.
Die zahnmedizinische Behandlung von Erkrankungen der Zähne oder im Bereich der Mundhöhle erfolgt bei Weitem nicht immer aus optischen Gründen. Diese Erkrankungen werden auch mit ernsthaften Erkrankungen in Zusammenhang gebracht. Studien haben gezeigt, dass einige Erkrankungen im Mund- und Zahnbereich zu Herz- und Lungenkrankheiten oder Diabetes führen können. Oftmals erstreckt sich die Pathologie oder Symptomatik von Mund- und Zahnerkrankungen über einen weiten Bereich. In der zahnmedizinischen Klinik kommen daher viele verschiedene diagnostische Apparate zum Einsatz. Allerdings zählt die Magnetresonanztomographie, die sich in anderen Bereichen bereits zum wichtigsten bildgebenden Diagnosetool entwickelt hat, dort noch nicht zu den Standardverfahren. Dabei liegen ihre Vorteile auf der Hand: sie ist bekannt für sehr gute Bildkontraste vor allem zwischen verschiedenen Weichgewebsarten und kommt ohne gefährliche ionisierende Strahlung aus. Wahrscheinlich ist ersteres der Grund, warum die MRT in der Zahnmedizin noch nicht sonderlich vertreten ist, kommt es dort oft auf die kontrastreiche Darstellung von Hartgeweben an. Neueste Entwicklungen und Studien belegen jedoch die vielseitigen Vorteile der MRT auch in diesem Bereich. Ziel dieser Arbeit von der applikativen Seite betrachtet, war es, das enorme Potential der MRT in den vielseitigen Bereichen der Zahnmedizin weiterhin aufzuzeigen. Viele dieser Anwendungen stellen jedoch sehr hohe Anforderungen an die Systeme. Meist sind die darzustellenden Strukturen sehr klein und erfordern eine hohe Auflösung. Während man beim Röntgenverfahren beispielsweise die Energie des Strahles (Dosis) steigern kann, bedeutet dies in der MRT (ohne das Gerät zu wechseln) eine Verlängerung der Messzeit. Gerade im Bereich des Kopfes kommt es oft zu ungewollten Bewegungen, die das Ergebnis und die Reproduzierbarkeit der gewonnenen diagnostischen Informationen verschlechtern oder gänzlich unbrauchbar machen. Die grösste Herausforderung dabei ist die dreidimensionale Abformung von Zahnoberflächen in der Prothetik. Dieses Verfahren kann eine aufwändige und unangenehme manuelle Abformung der Zähne und die Herstellung eines Zwischengipsmodells ersetzen und ein direktes dreidimensionales Modell der Zahnoberflächen produzieren. Durch die moderne CAD-/CAM-Technik kann daraus vom Zahntechniker direkt eine Zahnrestauration erstellt werden. Daher war ein wichtiger Bestandteil des Projekts dentale MRT die Entwicklung einer Methode zur Erkennung und gleichzeitiger Korrektur von Bewegungen.
Verschiedenste Anforderungen waren an die Methode gestellt. Zum einen muss die Methode bereits Bewegungen im Bereich von ~100 µm erkennen, um die Anforderungen an die finale Bildauflösung zu unterschreiten. Bei der dentalen Abformung wird eine 1-Kanal-Empfängerspule verwendet und je nach Messung kann der Patient dabei auf dem Bauch oder Rücken liegen. Weiterhin muss die Bewegungserkennung ohne zusätzliche externe Geräte wie Kameras, deren Sicht z.B. durch den Patienten verdeckt ist, durchführbar sein.
Die vorliegende Arbeit deckt also zwei größere Themenblöcke ab. Zum einen wurden in der Arbeit neue Applikationen entwickelt oder weiterentwickelt, um verschiedenen Bereichen der Zahnmedizin den Zugang zu MRTUntersuchungen zu eröffnen. Kapitel 4 beschreibt die Möglichkeit, die Bewegung des Kiefergelenks dynamisch zu erfassen. Es stellte sich in der Arbeit heraus, dass sowohl die Bewegung von Weichgewebeanteilen darstellbar waren, als auch der intraartikuläre Abstand im Kiefergelenk unter Kaubelastung in Echtzeit vermessen werden konnte. Dabei wurde die Bildgebungssequenz und der zugehörige Rekonstruktionsalgorithmus so entwickelt, dass die Daten flexibel und ohne Vorwissen akquiriert und aufbereitet werden können. Hierbei konnten verschiedenen Pathologien anhand der dynamischen Bilder sichtbar gemacht werden und die dynamische MRT konnte Erkrankungen erkennen, die mit anderen Mitteln nicht sichtbar waren. Die vielen diagnostischen Möglichkeiten, die dadurch entstehen sind bisher noch nicht untersucht und sollten durch großangelegte Studien untersucht und belegt werden.
Kapitel 5 beschreibt die Ergebnisse einer großangelegten Studie im Bereich der dentomaxillären Bildgebung . Die diagnostischen Möglichkeiten der MRT für die kieferorthopädische Anwendung liegen klar auf der Hand. Die typischen Patienten in der Kieferorthopädie sind Kinder und Jugendliche. Die Abwesenheit von gewebsschädigender Strahlung ist hier ein besonderer Vorteil der MRT. Eine Messung dauert zudem nach diversen Weiterentwicklungen der Methode nur noch 2 (bzw. 4) Minuten. Die Auflösung in den gerenderten Bildern beträgt 0.25x0.25x0.5 mm. Mit der Methode konnte unter anderem die Geminisierung einer Zahnwurzel und der Abstand des Zahnmarks zur Zahnoberfläche (Zahnschmelz) dargestellt und vermessen werden.
Kapitel 6 stellt Neuentwicklungen im Bereich der dentalen Abformung von Zahnoberflächen dar. Hier wurde eine neue Methode entwickelt um den Patientenkomfort bei der Messung zu steigern und so Bewegungen im Vorhinein zu unterbinden. Bei der alten Methode liegt der Patient auf dem Bauch und ein großer Teil der Mundhöhle ist mit Kontrastmittel befüllt. Durch die Verwendung einer präparierten Tiefziehschiene kann das Kontrastmittel nun lokal appliziert
werden und eine Messung in Rückenlage das Patienten ist somit problemlos möglich. Die damit verbundene Reproduzierbarkeit der Abformungsergebnisse wäre durch eine großangelegte Studie zu zeigen. Die Hauptaufgabe der vorliegenden Dissertation war es, eine Methode zur Bewegungskorrektur zu entwickeln, die es ohne eine große Anzahl an Zusatzgeräten ermöglicht, die Bewegung eines Subjekts während der Messung zu erfassen und dementsprechend zu korrigieren. Diese neue Methode, gestützt auf einer Messung eines MRT-aktiven Markers der am Subjekt angebracht wird, beruht außer der Verwendung des Markers nur auf MRT-Hardware. Die Methode wird in Kapitel 8 vorgestellt. Da es sich bei der Methode um eine Neuentwicklung handelt, war es in erster Linie wichtig, die Einflüsse der verschiedenen Parameter, die sich auf die Positionierungsgenauigkeit auswirken, abzuschätzen und letzten Endes festzulegen. Dies wurde in mehreren Vorstudien, Experimenten und Computersimulationen abgehandelt. In der Arbeit konnte durch Validierungsexperimente gezeigt werden dass sich mit dem bildbasierten Navigator Bewegungen im Genauigkeitsbereich von ~50 µm (Translation) und ~0.13◦(Rotation) detektieren lassen. Mit den Positionsinformationen lassen sich MRT-Daten retrospektiv korrigieren oder idealerweise das Bildgebungsvolumen in Echtzeit anpassen um Inkonsistenzen in den Daten im Vorhinein vorzubeugen. Durch Bewegung beeinträchtigte in-vivo Daten konnten so mit der Methode korrigiert werden und anhand eines geeigneten Phantoms konnte die Verbesserung der Erkennung von Kanten, wie sie beispielsweise bei der dentalen Abformung angewandt wird, gezeigt werden. Die kontinuierlichen Entwicklungen in den Bereichen Hard-, Software und Algorithmik ermöglichen weitere hochauflösende Anwendungen. In Kapitel 9 sind die Ergebnisse einer Studie gezeigt, die sich mit der Analyse der Handbewegungen während einer Messung beschäftigt. Für eine hochauflösenden Darstellung der Handanatomie bei 7 T ist eine Unterbindung der Handbewegung sehr wichtig. Um ein geeignetes Design für eine Empfängerspule zu entwerfen, die Bewegungen der Hand unterbindet, wurde eine qualitative Bewegungsanalyse der Hand in mehreren verschiedenen Positionen durchgeführt. Durch Vergleich der Ergebnisse konnte so auf geeignete Designs zurückgeschlossen werden.
Entwicklung klinischer Methoden zur Quantifizierung der longitudinalen Relaxationszeit T1 in der MRT
(2014)
Die Aufgabenstellung in der vorliegenden Arbeit bestand in der Entwicklung und Umsetzung neuer T1-Quantifizierungsverfahren, die zuverlässig in der klinischen Routine angewendet werden können. Die ausgearbeiteten Techniken umfassten dabei zwei Hauptarbeitsschwerpunkte.
Zum einen die Implementierung einer neuartigen dynamischen T1- Thermometriemethode für MR-Sicherheitsuntersuchungen medizinischer Geräte und Implantate, wie beispielsweise Kathetern oder Herzschrittmachern, und zum anderen die Entwicklung eines robusten kardialen T1-Mapping-Verfahrens, welches auch bei stärker erkrankten Patienten mit eingeschränkter Atemanhaltefähigkeit stabil anwendbar ist.
Mit der entwickelten kombinierten Heiz- und T1-Thermometriesequenz konnte ein neues Verfahren präsentiert werden, mit dem ein zu untersuchendes medizinisches Gerät oder Implantat kontrolliert erwärmt und die Temperaturänderung zeitgleich präzise erfasst werden kann. Dabei war es möglich, die HF-induzierte Erwärmung der metallischen Beispielimplantate sowohl in homogenem Gel als auch in inhomogenem Muskelgewebe exakt und ortsaufgelöst zu quantifizieren. Die MR-technisch errechneten Temperaturwerte zeigten dabei eine sehr gute Übereinstimmung zu den ermittelten Referenzwerten mit einer Temperaturabweichung von meist weniger als 1K. Die Ergebnisse zeigen, dass es mit der präsentierten Methode möglich ist, die räumliche Temperaturverteilung in einem großen Bereich mit einer einzigen Messung quantitativ zu erfassen. Dies ist neben der Nichtinvasivität der Methode der größte Vorteil im Vergleich zu der Einzelpunktmessung mittels eines bei solchen Messungen sonst zumeist verwendeten fluoroptischen Temperatursensors. Bei gestreckten Implantaten kann demnach idealerweise das gesamte Objekt während einer einzigen Messung auf potentielle Temperaturänderungen oder sogenannte Hotspots untersucht werden, was bei der Verwendung von Temperatursensoren lediglich mit großem Zeitaufwand möglich ist, da hier die Temperatur jeweils nur punktuell erfasst werden kann. Im Vergleich zu anderen publizierten MR-Thermometrieverfahren, welche auf der PRF-Technik basieren, bietet die hier präsentierte Methode vor allem den Vorteil, dass hiermit auch eine präzise Temperaturquantifizierung in inhomogenem biologischem Gewebe mit starken Suszeptibilitätsunterschieden wie beispielsweise zwischen Herz und Lunge möglich ist. Somit stellt die Methode ein leistungsstarkes Hilfsmittel für nicht-invasive MR-Sicherheitsuntersuchungen nicht nur an medizinischen Implantaten sondern beispielsweise auch für MR-geführte Interventionen dar.
Mit der entwickelten kardialen T1-Mapping-Sequenz TRASSI wurde eine leistungsstarke Methode zur exakten und hoch aufgelösten Generierung kardialer T1-Karten in äußerst kurzer Messzeit (< 6 s) vorgestellt. Durch ihre außerordentliche Robustheit sowohl gegenüber Bildartefakten als auch Herzrhythmusstörungen während der Datenakquisition bietet die Sequenz deutlich verbesserte Möglichkeiten für die Diagnostik verschiedener Herzerkrankungen. Aufgrund der sehr kurzen Akquisitionszeit wird insbesondere auch die Generierung von T1-Karten bei schwer erkrankten Patienten mit kurzer Atemanhaltefähigkeit ermöglicht. Im Vergleich zu derzeit üblicherweise verwendeten alternativen Verfahren wie etwa MOLLI, konnten die T1-Karten mit vergleichbarer Bildauflösung in bis zu 70% kürzerer Messzeit akquiriert werden. Die Ergebnisse der durchgeführten Phantommessungen belegen außerdem, dass die Methode exaktere T1-Werte liefert als dies beispielsweise mit MOLLI möglich ist. Des Weiteren weist TRASSI im Gegensatz zu MOLLI keine T1-Abhängigkeit von der Herzrate auf, wodurch die vorgestellte Technik besonders für diagnostische Studien geeignet ist, welche eine sehr hohe Genauigkeit und Reproduzierbarkeit im Zeitverlauf oder zwischen verschiedenen Patienten erfordern.
Mit TRASSI konnten die Strukturen des Herzens bei den durchgeführten in vivo Untersuchungen durchweg mit scharfen Kanten und ohne Bewegungsartefakte dargestellt werden. Dabei wurde unabhängig von der Herzrate und der Bildebene stets eine sehr gute Bildqualität erreicht. Der Hauptgrund hierfür ist vermutlich in der sehr kurzen Akquisitionszeit und der radialen Datenaufnahme zu sehen. Beide Verfahren reduzieren Artefakte aufgrund von Bewegungen wie beispielsweise Herzschlag und Atmung erheblich. Die aufgenommenen T1-Karten zeigen bei allen Probanden und Patienten eine gute diagnostische Bildqualität. So konnten auch die infarzierten Bereiche bei Patienten mit Myokardinfarkt deutlich visualisiert und quantitativ erfasst werden. Nochmals hervorzuheben ist die beobachtete besondere Robustheit der TRASSI Methode gegenüber
Artefakten beziehungsweise T1-Quantifizierungsfehlern bei Patienten mit Herzrhythmusstörungen. Auch bei untersuchten Patienten mit starken Arrhythmien während der Bildgebung konnte eine sehr gute Bildqualität und Genauigkeit der errechneten T1-Karten erreicht werden. Die Ergebnisse der Extrazellularvolumen-Quantifizierung zeigen zudem, dass mittels TRASSI auch weiterführende diagnostische Methoden entwickelt und angewandt werden können. Dabei konnten durch Rückrechnung hochaufgelöster und präziser Extrazellularvolumen-Karten beispielsweise Infarktbereiche deutlich visualisiert und signifikante Unterschiede zwischen akut und chronisch infarziertem Herzmuskelgewebe nicht nur identifiziert sondern auch quantitativ charakterisiert werden. Somit ist diese Methode insbesondere für eine potentielle Differenzierung zwischen reversibel und irreversibel geschädigten Herzarealen interessant.
Für die Zukunft ist es wünschenswert, weitergehende Untersuchungen an verschiedenen spezifischen Herzerkrankungen vorzunehmen. Zu solchen Erkrankungen gehören beispielsweise die Herzmuskelentzündung (Myokarditis) oder Herzklappenerkrankungen. Diese Krankheitsbilder sind hinsichtlich einer möglichen transienten oder permanenten Schädigung des Herzmuskels mit den bisher verfügbaren Verfahren nur sehr schwer oder lediglich im weit fortgeschrittenen Stadium exakt diagnostizierbar. Die vorgestellte TRASSI-Sequenz bietet hier eine gute Möglichkeit für eine frühzeitige Erkennung der Auswirkungen solcher Erkrankungen auf den Herzmuskel. Weiterführende Untersuchungen der TRASSI-Methode zu deren Robustheit gegenüber spezifischen Herzrhythmusstörungen und ein umfassender Vergleich zum bereits etablierten MOLLI-Verfahren könnten darüber hinaus die Alltagstauglichkeit von TRASSI weiter spezifizieren und den Weg in die klinische Routine ebnen. Die bereits dargelegten positiven Ergebnisse des Verfahrens lassen vermuten, dass TRASSI potentiell ein sehr gutes nicht-invasives Diagnoseverfahren für verschiedenste Herzerkrankungen darstellt. Im Vergleich zu bereits bestehenden Techniken liegen die Vorteile der TRASSI-Methode nach den bisher vorliegenden Ergebnissen zusammenfassend vor allem in der Generierung diagnostisch verlässlicherer T1-Werte bei gleichzeitig verringerter Messzeit, wodurch das Verfahren insbesondere auch für schwer erkrankte Patienten mit starken Arrhythmien und eingeschränkter Atemanhaltefähigkeit geeignet ist.
TRASSI ist darüber hinaus aber auch für MR-Untersuchungen im Hochfeld besser geeignet als entsprechende bSSFP-basierende Verfahren wie beispielsweise MOLLI. Dies liegt vor allem daran, dass TRASSI eine Gradientenecho-basierte Bildgebungsmethode ist und somit eine niedrige spezifische Absorptionsrate aufweist. Zudem sind Gradientenecho-Sequenzen allgemein weniger empfindlich gegenüber Suszeptibilitätsartefakten, so dass beispielsweise metallische Implantate bei Patienten sich weniger störend auf die erreichbare Bildqualität auswirken.
In der vorliegenden Arbeit wurde sowohl eine exakte T1-Thermometriesequenz als auch eine sehr schnelle und präzise kardiale T1-Mapping-Methode vorgestellt. Für zukünftige Arbeiten ist es wünschenswert, beide Sequenzen bzw. deren Mechanismen zu vereinen und eine Temperaturquantifizierung am Herzen praktisch durchzuführen. Dies wäre zum einen für MR-Sicherheitsuntersuchungen von Schrittmacherelektroden in vivo vorteilhaft, und zum anderen wäre hiermit eine direkte Erfolgskontrolle während einer Katheterablation realisierbar. Eine solche Ablationsbehandlung könnte durch eine genaue Lokalisierung des behandelten - also erhitzten - Herzareals sehr viel präziser durchgeführt werden, wodurch auch bei komplexeren Ablationen die Behandlungserfolge erhöht werden könnten. In einer ersten Veröffentlichung hierzu konnte bereits gezeigt werden, dass eine MR-gestützte Katheterablation die Heilungs- und Erfolgsaussichten des Eingriffes steigern kann. Dieses Verfahren könnte potentiell mit Hilfe einer Echtzeittemperaturüberwachung basierend auf dem TRASSI-Verfahren noch weiter verbessert werden.
In Zusammenfassung wurden in dieser Arbeit zwei neue T1-Quantifizierungsverfahren entwickelt und vorgestellt, die voraussichtlich zuverlässig im klinischen Alltag angewendet werden können und neue nicht-invasive diagnostische Möglichkeiten eröffnen. Die implementierten Sequenzen ermöglichen dabei zum einen eine exakte Temperaturquantifizierung und zum anderen ein präzises kardiales T1-Mapping. Beide Verfahren versprechen dabei robuste und reproduzierbare Ergebnisse und könnten in Zukunft den Weg in die klinische Routine finden und so bei einer fundierten Diagnostik verschiedenster Herzerkrankungen behilflich sein.
Ziel dieser Arbeit war es, das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung mittels der MRT darzustellen. Um trotz der niedrigen Protonendichte der Lunge und der geforderten hohen Auflösung ausreichend Signal für eine verlässliche Diagnostik zu erhalten, sind Aufnahmezeiten von einigen Minuten nötig. Um die Untersuchung für den Patienten angenehmer zu gestalten oder auf Grund der eingeschränkten Fähigkeit eines Atemstopps überhaupt erst zu ermöglichen, war eine Anforderung, die Aufnahmen in freier Atmung durchzuführen. Dadurch entstehen allerdings Bewegungsartefakte, die die Diagnostik stark beeinträchtigen
und daher möglichst vermieden werden müssen. Für eine Bewegungskompensation
der Daten muss die auftretende Atembewegung detektiert werden. Die Bewegungsdetektion
kann durch externe Messgeräte (Atemgurt oder Spirometer) oder durch eine
zusätzliche Anregungen erfolgen (konventionelle Navigatoren) erfolgen. Nachteile
dieser Methoden bestehen darin, dass die Bewegung während der Atmung nicht
direkt verfolgt wird, dass elektronische Messgeräte in die Nähe des Tomographen
gebracht werden und das die Patienten zusätzlich vorbereitet und eingeschränkt
werden. Des Weiteren erfordert eine zusätzliche Anregung extra Messzeit und kann
unter Umständen die Magnetisierung auf unterwünschte Weise beeinflussen.
Um die angesprochenen Schwierigkeiten der Bewegungsdetektion zu umgehen,
wurden in dieser Arbeit innerhalb einer Anregung einer 3d FLASH-Sequenz sowohl
Bilddaten- als auch Navigatordaten aufgenommen. Als Navigator diente dabei das
nach der Rephasierung aller bildgebenden Gradienten entstehende Signal (DC Signal).
Das DC Signal entspricht dabei der Summe aller Signale, die mit einem bestimmten
Spulenelement detektiert werden können. Bewegt sich beispielsweise die Leber
bedingt durch die Atmung in den Sensitivitätsbereich eines Spulenelementes, wird
ein stärkeres DC Signal detektiert werden. Je nach Positionierung auf dem Körper
kann so die Atembewegung mit einzelnen räumlich lokalisierten Spulenelementen
nachverfolgt werden. Am DC Signalverlauf des für die Bewegungskorrektur ausgewählten
Spulenelementes sind dann periodische Signalschwankungen zu erkennen.
Zusätzlich können aus dem Verlauf Expirations- von Inspirationszuständen unterschieden
werden, da sich Endexpirationszustände im Regelfall durch eine längere
Verweildauer auszeichnen.
Grundsätzlich kann das DC Signal vor oder nach der eigentlichen Datenaufnahme
innerhalb einer Anregung aufgenommen werden. Auf Grund der kurzen Relaxationszeit
T∗2 des Lungengewebes fällt das Signal nach der RF Anregung sehr schnell ab. Um
möglichst viel Signal zu erhalten sollten, wie in dieser Arbeit gezeigt wurde, innerhalb einer Anregung zuerst die Bilddaten und danach die Navigatordaten aufgenommen
werden. Dieser Ansatz führt zu einer Verkürzung der Echozeit TE um 0.3 ms und
damit zu einem SNR Gewinn von etwa 20 %. Gleichzeitig ist das verbleibende Signal
nach der Datenakquisition und Rephasierung der bildgebenden Gradienten noch
ausreichend um die Atembewegung zu erfassen und somit eine Bewegungskorrektur
der Daten (Navigation) zu ermöglichen.
Um eine retrospektive Bewegungskorrektur durchführen zu können, müssen Akzeptanzbedingungen
(Schwellenwerte) für die Datenauswahl festgelegt werden. Bei
der Wahl des Schwellenwertes ist darauf zu achten, dass weder zu wenige noch zu
viele Daten akzeptiert werden. Akzeptiert man sehr wenige Daten, zeichnen sich die
Rekonstruktionen durch einen scharfen Übergang zwischen Lunge und Diaphragma
aus, da man sehr wenig Bewegung in den Rekonstruktionen erlaubt. Gleichzeitig
erhöht sich allerdings das Risiko, dass nach der Navigation Linien fehlen. Dies führt
zu Einfaltungsartefakten, die in Form von gestörten Bildintensitäten in den Rekonstruktionen
zu sehen sind und die diagnostische Aussagekraft einschränken. Um
Einfaltungsartefakte zu vermeiden sollte der Schwellenwert so gewählt werden, dass
nach der Datenauswahl keine Linien fehlen. Aus dieser Anforderung lässt sich ein
maximaler Schwellenwert ableiten. Akzeptiert man dagegen sehr viele Daten, zeichnen
sich die Rekonstruktionen durch erhöhtes Signal und das vermehrte Auftreten
von Bewegungsartefakten aus. In diesem Fall müsste der Arzt entscheiden, ob Bewegungsartefakte
die Diagnostik zu stark beeinflussen. Wählt man den Schwellenwert
so, dass weder Linien fehlen noch zu viel Bewegung erlaubt wird, erhält man Rekonstruktionen
die sich durch einen scharfen Diaphragmaübergang auszeichnen und in
denen noch kleinste Gefäße auch in der Nähe des Diaphragmas deutlich zu erkennen
sind. Hierfür haben sich Schwellenwerte, die zu einer Datenakzeptanz von ca. 40 %
führen als günstig erwiesen.
Um Einfaltungsartefakte auf Grund der retrospektiven Datenauswahl zu verhindern,
muss das Bildgebungsvolumen mehrfach abgetastet werden. Dadurch wird
gewährleistet, dass für die letztendliche Rekonstruktion ausreichend Daten zur Verfügung
stehen, wobei mehrfach akzeptierte Daten gemittelt werden. Dies spielt auf
Grund der niedrigen Protonendichte der Lunge eine wesentliche Rolle in der Rekonstruktion
hochaufgelöster Lungendatensätze. Weiterhin führt das Mitteln von
mehrfach akzeptierten Daten zu einer Unterdrückung der sogenannten Ghost Artefakte,
was am Beispiel der Herzbewegung in der Arbeit gezeigt wird.
Da die Messungen unter freier Atmung durchgeführt werden und keine zusätzlichen
externen Messgeräte angeschlossen werden müssen, stellte die Untersuchung
für die Patienten in dieser Arbeit kein Problem dar. Im ersten Teil dieser wurde Arbeit
gezeigt, dass sich mit Hilfe des DC Signales als Navigator und einer retrospektiven
Datenauswahl das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung
von beispielsweise 1.6 x 1.6 x 4 mm3 innerhalb von 13 min. darstellen lässt. Die Anwendbarkeit der vorgestellten Methode zur Bewegungskorrektur wurde neben
Probanden auch an Patienten demonstriert.
Da wie bereits beschrieben das Bildgebungsvolumen mehrfach abgetastet werden
muss, wiederholt sich auch die Abfolge der für die Bildgebung verantwortlichen
Gradienten periodisch. Da sich der Atemzyklus aber auch periodisch wiederholt,
kann es zu Korrelationen zwischen der Atmung und den wiederholten Messungen
kommen. Dies führt dazu, dass auch nach vielen wiederholten Messungen immer
noch größere Bereiche fehlender Linien im k-Raum bleiben, was zu Artefakten in
den Rekonstruktionen führt. Dies konnte im Falle der konventionellen Bewegungskorrektur
in den Gatingmasken, die die Verteilung und Häufigkeit der einzelnen
akzeptierten Phasenkodierschritte im k-Raum zeigen, beobachtet werden.
Da eine vorsätzliche Unterbrechung der Atemperiodizität (der Patient wird dazu
angehalten, seine Atemfrequenz während der Messung absichtlich zu variieren) zur
Vermeidung der angesprochenen Korrelationen nicht in Frage kommt, musste die
Periodizität in der Datenaufnahme unterbrochen werden. In dieser Arbeit wurde
dies durch eine quasizufällige Auswahl von Phasen- und Partitionskodiergradienten
erreicht, da Quasizufallszahlen so generiert werden, dass sie unabhängig von ihrer
Anzahl einen Raum möglichst gleichförmig ausfüllen. Die quasizufällige Datenaufnahme
führt deshalb dazu, das sowohl akzeptierte als auch fehlende Linien nach der
Bewegungskorrektur homogen im k-Raum verteilt auftreten.
Vergleicht man das auftreten von Ghosting zeichnen sich die quasizufälligen Rekonstruktionen
im Vergleich zur konventionellen Datenaufnahme durch eine verbesserte
Reduktion von Ghost Artefakten aus. Dies ist auf die homogene Verteilung mehrfach
akzeptierter Linien im k-Raum zurückzuführen. Die homogenere Verteilung von
fehlenden Linien im k-Raum führt weiterhin zu einer wesentlich stabileren Rekonstruktion
fehlender Linien mit parallelen MRT-Verfahren (z.B. iterativem Grappa).
Dies wird umso deutlicher je höher der Anteil fehlender Linien im k-Raum wird. Im
Falle der konventionellen Datenaufnahme werden die zusammenhängenden Bereiche
fehlender Linien immer größer, was eine erfolgreiche Rekonstruktion mit iterativem
Grappa unmöglich macht. Im Falle der quasizufälligen Datenaufnahme dagegen
können auch Datensätze in denen 40% der Linien fehlen einfaltungsartefaktfrei
rekonstruiert werden.
Im weiteren Verlauf der Arbeit wurde gezeigt, wie die Stabilität der iterativen Grappa
Rekonstruktion im Falle der quasizufälligen Datenaufnahme für eine erhebliche
Reduktion der gesamten Messzeit genutzt werden kann. So ist in einer Messzeit von
nur 74s die Rekonstruktion eines artefaktfreien und bewegungskorrigierten dreidimensionalen
Datensatzes der menschlichen Lunge mit einer Auflösung von 2 x 2 x
5 mm3 möglich. Des Weiteren erlaubt die quasizufällige Datenaufnahme in Kombination
mit iterativem Grappa die Rekonstruktion von Datensätzen unterschiedlicher
Atemphasen von Inspiration bis Expiration (4D Bildgebung). Nach einer Messzeit
von 15min. wurden 19 unterschiedliche Atemzustände rekonstruiert, wobei sich der Anteil der fehlenden Linien zwischen 0 und 20 % lag. Im Falle der konventionellen
Datenaufnahme wäre eine wesentlich längere Messzeit nötig gewesen, um ähnliche
Ergebnisse zu erhalten.
Zum Schluss soll noch ein Ausblick über mögliche Weiterentwicklungen und Anwendungsmöglichkeiten,
die sich aus den Erkenntnissen dieser Arbeit ergeben haben,
gegeben werden. So könnte das quasizufällige Aufnahmeschema um eine Dichtegewichtung
erweitert werden. Hierbei würde der zentrale k-Raum Bereich etwas
häufiger als die peripheren Bereiche akquiriert werden. Dadurch sollte die iterative
Grappa Rekonstruktion noch stabiler funktionieren und Ghost Artefakte besser reduziert
werden. Die Verteilung der Linien sollte allerdings nicht zu inhomogen werden,
um größere Lücken im k-Raum zu vermeiden.
Darüber hinaus könnte die vorgestellte Methode der Bewegungskompensation
auch für die Untersuchung anderer Organe oder Körperteile verwendet werden.
Voraussetzung wäre lediglich das Vorhandensein dezidierter Spulenanordnungen,
mit denen die Bewegung nachverfolgt werden kann. So ist beispielsweise eine dynamische
Bildgebung des frei und aktiv bewegten Knies möglich, wobei zwischen
Beugung und Streckung durch die erste Ableitung des zentralen k-Raum Signales
unterschieden werden kann. Dies kann zusätzliche Diagnoseinformationen liefern
oder für Verlaufskontrollen nach Operationen benutzt werden [15].
Eine Weiterentwicklung mit hohem klinischen Potential könnte die Kombination
der in dieser Arbeit vorgestellten retrospektiven Bewegungskorrektur mit einer Multi-
Gradienten-Echo Sequenz darstellen. Hierzu musste die bestehende Sequenz lediglich
um eine mehrfache Abfolge von Auslesegradienten innerhalb einer Anregung erweitert
werden. Dies ermöglicht eine bewegungskorrigierte voxelweise Bestimmung der
transversalen Relaxationszeit T∗2 in hoher räumlicher Auflösung. Unter zusätzlicher
Sauerstoffgabe kann es zu einer Veränderung von T∗2 kommen, die auf den sogenannten
BOLD Effekt (Blood Oxygen Level Dependent) zurückzuführen ist. Aus dieser
Änderung könnten Rückschlüsse auf hypoxische Tumorareale gezogen werden. Da
diese eine erhöhte Strahlenresistenz aufweisen, könnte auf diese Bereiche innerhalb
des Tumors eine erhöhte Strahlendosis appliziert und so möglicherweise Behandlungsmisserfolge
reduziert werden. Gleichzeitig kann durch die 4D Bildgebung eine
mögliche Tumorbewegung durch die Atmung erfasst und diese Information ebenfalls
in der Bestrahlungsplanung benutzt werden. Die Lungen MRT könnte somit um eine
hochaufgelöste dreidimensionale funktionelle Bildgebung erweitert werden.
Das Ziel der Promotion war die Entwicklung eines Flusssensors mit dem Fokus auf Flussmessungen an Pflanzen. Dazu musste zunächst die Hardware in Form eines räumlich zugänglichen Magneten und einer Sende- und Empfangseinheit entworfen werden. Um die MR-Konsole ansteuern zu können, musste eine Software entwickelt werden. Die AC-Methode wurde für Flussmessungen mit niedrigen Geschwindigkeiten angepasst und die entsprechende Theorie dazu erweitert. Mit dieser weiterentwickelten AC-Methode wurde die Flussmessung an Pflanzen demonstriert. Dafür wurden im Rahmen einer Kooperation mit der Arbeitsgruppe „Lipid Motobolism“ der IPK-Gatersleben Flussstudien an Weizenpflanzen durchgeführt. Darüber hinaus wurde in dieser Arbeit eine neue Technik zur Wirbelstromvermeidung bei Permanentmagneten entwickelt, um Problemen mit diesen bei Flussmessungen entgegenzuwirken.
Sensorbau
Es wurde ein zugänglicher, mobiler Magnet mit einer Feldstärke von 0,42 T gebaut. Die Feldhomogenität beträgt 0,5 ppm in 1 cm³. Im Vergleich zu dem am Lehrstuhl der EP5 bestehenden, geschlossenen, mobilen Magnetsystem erreicht das in dieser Arbeit gebaute System ein 40fach homogeneres Magnetfeld. Erzielt wurden diese Verbesserungen durch ein spezielles Design, welches durch Computersimulationen sukzessiv optimiert wurde. Durch angepasste Polschuhe konnte darüber hinaus die Induktion von Wirbelströmen im Mittel um einen Faktor 7 reduziert werden, wodurch phasensensitive Flussmessungen ermöglicht wurden.
Um die Zugänglichkeit zu dem Innenraum der HF-Spulen zu gewährleisten, wurde eine Klappspule weiterentwickelt und als Sende- und Empfangseinheit für den Tomographen gebaut. Ferner wurde ein System gebaut, dass direkt um die Pflanze gewickelt werden kann und sich somit für besonders dünne Pflanzenstängel eignet.
Weiterhin wurden zwei Systeme zur Rauschunterdrückung für die Messungen an Pflanzen entwickelt. Dadurch konnte das Rauschen um einen Faktor 92 gesenkt werden. Dies war notwendig, weil die länglichen Pflanzen durch ihre Ausdehnung über das Gehäuse hinweg ein Rauschen in die Empfangsspule induziert haben. Die beiden Rauschunterdrückungssysteme, die elektrische Schirmung und die Gleichtaktunterdrückung, entfernten das Rauschen dabei gleichermaßen.
Flussmessung
Die im Rahmen der Arbeit erfolgte Weiterentwicklung der AC-Methode [102] erlaubte es erstmals mit der Methode quantitative Flussprofile aufzunehmen. In Folge dessen war es
außerdem möglich Geschwindigkeiten unter 200 µm/s zu messen. Die Vorrausetzung dafür war die Implementierung von trapezförmigen Gradienten, welche kürzere Rampzeiten und eine stärkere Kodierung zulassen. Dadurch sind außerdem Intervalle ohne Gradienten realisierbar, die effizientere Refokussierungspulse und die Aufnahme mehrerer Datenpunkte ermöglichen. Die zu erwartenden und simulierten Flussprofile entsprachen den gemessenen Profilen durch die Verwendung einer neuen Auswertungstechnik.
Die neu entwickelte Erweiterung zur Bildgebung ermöglicht die ortsaufgelöste, spektroskopische Flussmessung und so können die Bereiche von Xylem und Phloem voneinander getrennt werden. Dies wurde durch Messungen einer Schwarzerle gezeigt, bei der die im Abschnitt 5.1 beschriebene Struktur dikotyler Pflanzen aufgelöst werden konnte. Zusätzlich können qualitativ genauere Aussagen über die Flussgeschwindigkeit getroffen werden.
Bei Messungen an Pflanzen konnte mit der optimierten AC-Methode die Flussänderungen aufgrund äußerer Einflüsse, wie der Beleuchtung, beobachtet werden. Langzeitmessungen über 9 Tage zeigten einen der Beleuchtung folgenden Flussverlauf - auch bei sehr geringen mittleren Flussänderungen von unter 200 µm/s.
Bloch-Siegert Phasenkodierung
Um eine Phasenkodierung ohne die Induktion von Wirbelströmen zu erhalten, wurde im Rahmen der Arbeit die ortsabhängige Phasenkodierung mittels B1-Gradienten entwickelt. Diese Technik basiert auf HF-Wechselfeldern und benutzt den sogenannten BS-Shift um einen B1-feldabhängigen Frequenzshift zu induzieren. Zwei Rekonstruktionstechniken wurden entwickelt, um die Rekonstruktion von entzerrten Bildern zu ermöglichen. Dies war notwendig, da die Kodierung mittels BS-Shift von B1² abhängt. Infolgedessen wird bei der Verwendung von konstanten HF-Gradienten eine vom Quadrat des Ortes abhängige Phasenkodierung induziert. Als Alternative zu diesem Verfahren wurde ein Gradient entwickelt, der einen wurzelförmigen Feldverlauf hat und somit die lineare Kodierung ohne angepasste Rekonstruktionstechniken ermöglicht.
Magnetic Particle Imaging (MPI) ist eine noch sehr junge Technologie unter den nicht-invasiven tomographischen Verfahren. Seit der ersten Veröffentlichung 2005 wurden einige Scannertypen und Konzepte vorgestellt, welche durch die Messung des Antwortsignals von superparamagnetischen Eisennanopartikeln (SPIOs) auf wechselnde Magnetfelder ein dreidi-mensionales Bild ihrer Verteilung berechnen können. Durch die direkte Messung des Tracers handelt es sich beim MPI um eine sehr sensitive und hochspezifische bildgebende Methode.
Zu Beginn dieser Forschungsarbeit gab es nur wenige bekannte MPI-Scanner, die jedoch alle ein nur kleines Field-of-View (FOV) vorweisen konnten. Der Grund dafür liegt in der Ver-wendung von Permanentmagneten.
Das Ziel war es nun, ein neues Konzept auszuarbeiten und einen 3D-MPI-Scanner zu entwer-fen, der in der Lage ist, ein mausgroßes Objekt zu messen.
In dieser Arbeit wird ein alternatives Scannerkonzept für die dreidimensionale Bildge-bung superparamagnetischer Eisennanopartikel vorgestellt. Der Traveling Wave MPI-Scanner (TWMPI) basiert auf einem neu entwickelten Hauptspulensystem, welches aus mehreren Elektromagneten besteht. Dadurch ist die Hardware bereits in der Lage, eine Linie entlang der Symmetrieachse über einen großen Bereich dynamisch zu kodieren. Mit Hilfe weiterer Ab-lenkspulen kann schließlich ein FOV von 65 x 25 x 25 Millimetern dreidimensional abgetastet werden. Dazu stehen mehrere Scanverfahren zur Verfügung, welche das Probenvolumen li-nienweise oder ebenenweise abtasten und mit einer Auflösung von ca. 2 Millimetern die Ver-teilung der SPIOs in wenigen Millisekunden abbilden können.
Mit diesem neuen Hardwareansatz konnte erstmals ein MPI-Scanner mit einem MR-Tomographen (MRT) kombiniert werden. Das MPI/MRT-Hybridsystem liefert tomographi-sche Bilder des Gewebes (MRT) und zeigt die Verteilung des eisenhaltigen Kontrastmittels (MPI), ohne die Probe bewegen zu müssen.
In einer in-vivo Echtzeitmessung konnte der TWMPI-Scanner mit 20 Bildern pro Se-kunde die dynamische Verteilung eines eisenhaltigen Kontrastmittels im Körper und speziell im schlagenden Herzen eines Tieres darstellen. Diese Echtzeitfähigkeit eröffnet in der kardi-ovaskuläre Bildgebung neue Möglichkeiten.
Erste Messungen mit funktionalisierten Eisenpartikeln zeigen die spezifische Bildge-bung verschiedener Zelltypen und stellen einen interessanten Aspekt für die molekulare Bild-gebung dar. Die Sensitivität des Scanners liegt dabei im Bereich von wenigen Mikrogramm Eisen pro Milliliter, was für den Nachweis von wenigen 10.000 mit Eisen markierten Zellen ausreicht.
Neben Messungen an diversen Ferrofluiden und eisenhaltigen Kontrastmitteln konnte der Einfluss von massiven Materialen, wie Eisenstückchen oder Eisenspänen, auf die rekon-struierten Bilder untersucht werden.
Erste Messungen an Gestein zeigen die Verteilung von Eiseneinschlüssen und bieten die Möglichkeit einer weiteren zerstörungsfreien Untersuchungsmethode für Materialwissen-schaftler und Geologen. Weiterführende Testmessungen mit einer unabhängigen μMPI-Anlage zeigen erste Ergebnisse mit Auflösungen im Mikrometerbereich und liefern Erkennt-nisse für den Umgang und Messung mit starken Gradientenfeldern.
Eine Modifizierung der Messanlage erlaubt es, in gerade einmal 500 μs ein komplettes Bild aufzunehmen, womit die Bewegung eines Ferrofluidtropfens in Wasser sichtbar gemacht werden konnte. Damit ist diese TWMPI-Anlage das schnellste MPI-System und eröffnet die Möglichkeit grundlegende Erfahrungen in der Partikeldynamik zu erlangen.
Der vorgestellte Traveling Wave MPI-Scanner ist ein alternativer Scannertyp, welcher sich von anderen MPI-Scannern abhebt. Mit neuen Ansätzen ist in der Lage ein mausgroßes Objekt auf dynamische Weise sehr schnell abzutasten. Dabei konnten in verschiedenen Mes-sungen die Funktionalität und Leistungsfähigkeit des TWMPI-Konzeptes demonstriert wer-den, welche die gesteckten Ziele deutlich übertreffen.
In dieser Arbeit werden für die Anwendung in der menschlichen Lunge
optimierte Methoden zur Bestimmung von T1- und T2*-Karten diskutiert:
Dc-Gating ermöglicht die Quantifizierung in freier Atmung, wobei für die
T1-Quantifizierung mittels Inversion Recovery eine Korrektur des dc-Signals
entwickelt wurde. Dies hat den Vorteil, dass Parameterkarten aus mehreren
Messungen anhand ihrer dc-Signale passend überlagert werden können. Da T1
und T2* auf unterschiedliche Art und Weise von der Sauerstoffkonzentration
abhängen, verbessert dies die Möglichkeit, ΔT1- und ΔT2*- Differenzkarten aus
Messungen mit unterschiedlichen O2-Konzentrationen im Atemgas zu erstellen.
Die Parameterquantifizierung ist in erster Linie für die Beobachtung von
Krankheitsverläufen interessant, da T1 und T2* absolute, vergleichbare Zahlen
sind. Da T2* deutlich vom Atemzustand abhängt, ist es auch hierfür sinnvoll,
durch Gating identische Atemzustände abzubilden. Um die unterschiedlichen
Einflüsse des Sauerstoffs auf T1 und T2* besser vergleichbar zu machen, wurde
in dieser Arbeit weiterhin eine kombinierte Messung für beide Parameter
implementiert: Da auch diese in freier Atmung stattfindet, profitieren nicht
nur die Differenzkarten von der Überlagerung der Bilder, sondern auch der
Vergleich der ΔT1- und ΔT2*-Karten untereinander.
Messungen mit einer konventionellen kartesischen Methode an COPD-Patienten
unter Raumluft- und 100% Sauerstoffatmung ergaben bei Verwendung identischer
Atemmasken ein deutlich geringeres ΔT1 als in gesunden Probanden. Dass T1 in
der Lunge nicht nur von der Sauerstoffkonzentration sondern auch von der
Gewebezusammensetzung und insbesondere auch dem Blutvolumenanteil abhängt,
zeigte sich hierbei aber auch an den bei COPD im Mittel sehr viel kürzeren
T1-Zeiten bei Raumluft. Die aufgrund emphysematischer Veränderung noch
zusätzlich reduzierte Protonendichte im Parenchym kranker Lungen macht diese
Messungen allerdings besonders schwierig.
Die oben erwähnten Optimierungen der T1-Quantifizierung zielen daher auch
darauf ab, das Signal aus der Lunge zu maximieren, um Patientenmessungen
einfacher zu machen: Messungen in freier Atmung sind für Patienten nicht nur
einfacher, sondern erlauben effektiv auch längere Messzeiten. Insbesondere
wurde aber durch die Entwicklung einer radialen Methode die Echozeit zur
Messung reduziert, um die kurze T2*-Zeit in der Lunge auszugleichen.
Schließlich wurde durch Implementation einer 2D UTE Sequenz die Messung bei
der kürzesten vom Scanner erlaubten Echozeit ermöglicht.
Die Messungen bei ultrakurzen Echozeiten in Probanden zeigten allerdings
deutlich kürzere T1-Zeiten als die zuvor gefundenen oder in der Literatur
dokumentierten. In weiteren Experimenten wurde das sichtbare T1 zu mehreren
Echozeiten mit Hilfe der zur kombinierten Quantifizierung entwickelten
Methode bestimmt. Dabei ergab sich eine Zunahme des gemessenen T1 mit der
Echozeit. Aus diesem Verhalten sowie den gefundenen kürzesten und längsten T1
lässt sich schließen, dass das intra- und extravaskuläre Lungenwasser, also
Blut bzw. das umgebende Gewebe, mit unterschiedlichen T1- und T2*-Zeiten zum
Signal und damit auch dem effektiven T1 beitragen.
Dass das TE der Messung die Gewichtung dieser Kompartimente bestimmt, hat
dabei mehrere Auswirkungen: Einerseits bedeutet dies, dass beim Vergleich von
T1-Messungen in der Lunge stets auch das TE mitbetrachtet werden muss, bei
dem diese durchgeführt wurden. Andererseits lässt sich die Möglichkeit, die
Messung auf die unterschiedlichen Kompartimente abzustimmen, potentiell
ausnutzen, um zusätzliche diagnostische Informationen zu gewinnen: Da T1 vom
Blutvolumenanteil und der Gewebezusammensetzung abhängt, könnte dieser Effekt
helfen, diese beiden Einflüsse zu differenzieren.
Während die in dieser Arbeit beschriebenen Experimente die TE-Abhängigkeit
des sichtbaren T1 in Probanden aufzeigen, liefern sie allerdings noch keine
genaue Erklärung für die möglichen Ursprünge dieses Effekts. Um diese weiter
zu untersuchen, könnten allerdings gezielte Phantom- und in vivo-Experimente
Aufschluss geben: Ein Aufbau, der die Feldverzerrung durch luftgefüllte
Alveolen in Lösungen mit entsprechenden verschiedenen Suszeptibilitäten
nachbildet, reduziert den Unterschied zwischen den Kompartimenten auf T1 und
χ. Eine in vivo-Messung mit möglichst großer Differenz zwischen Ex- und
Inspiration hingegen könnte den Einfluss der Abstände der Kompartimente vom
Gasraum aufzeigen, da die Alveolarwände in tiefer Inspiration am weitesten
gedehnt und daher am dünnsten sind.
Messungen mit Magnetresonanztomographen sind seit jeher mit hohen Lautstärken verbunden. Deshalb wird das Gerät im Volksmund auch als „laute Röhre“ bezeichnet. Bisher wurde das Problem mit Kopfhörern, Ohrenstöpseln und akustischer Dämmung des MRT-Scanners angegangen. Auch in der Fachliteratur wird das Problem als gegeben angesehen und es werden kaum wissenschaftliche Lösungsansätze zur Lautstärkereduktion beschrieben.
Das Ziel der vorliegenden Arbeit war es, Bildgebungs-Sequenzen für schwer‑optimierbare Bildkontraste und sogenannte Standard-Kontraste aus dem klinischen Umfeld hinsichtlich der Lautstärke zu optimieren. Viele dieser Kontraste können bereits mit einfachen Algorithmen wie dem Gradientenglättungsalgorithmus erfolgreich in Hinblick auf die Lautstärke optimiert werden. Allerdings existieren auch Sequenzen beziehungsweise Kontraste, die aufgrund ihrer Eigenschaften nicht von einem solchen Algorithmus profitieren können. Die Optimierungen und Änderungen sollten software-seitig erfolgen, das heißt durch Änderung der Gradientenformen und Datenakquisition.
In der Arbeit wurden die grundlegenden Zusammenhänge zwischen den verwendeten Geräteparametern und der Lautstärke untersucht und zudem die physikalischen Ursachen der Lautstärkeentwicklung hergeleitet. Diese konnten anhand der Lorentz-Kräfte quantitativ beschrieben werden. Somit konnten die Hauptursachen der Lautstärkeentwicklung identifiziert werden. Diese sind abhängig von der Gradienten-Steig-Rate, aber auch von der Amplitude der Gradienten. Es konnte gezeigt werden, dass eine Minimierung dieser Gradientenparameter zu einer geringeren Lautstärkeentwicklung führt. Allerdings führt diese Minimierung in den meisten Fällen auch zu einer systematischen Verlangsamung des Sequenzablaufs, was das Erreichen bestimmter Echozeiten und Bildkontraste unmöglich macht.
Zu den problematischen Kontrasten bezüglich der Lautstärkereduktion zählten der T1- und PD‑Kontrast einer Turbo-Spin-Echo-Sequenz. Durch die Kombination von mehreren Maßnahmen, wie der Adaption der k-Raum-Akquisition, der HF-Pulse-Parameter und den Gradientenformen, war es möglich, die Lautstärke in Beispielmessungen um bis zu 16,8 dB(A) zu reduzieren. Wie bei der kürzlich veröffentlichten Methode zur Reduktion für die T2‑gewichteten Kontraste, wurde dies zulasten einer Messzeitverlängerung von bis zu 50% erreicht. Die Endlautstärke betrug dabei circa 81 dB(A). Mit der Lautstärkeoptimierung der klinisch bedeutsamen T1- und PD‑Kontraste wurde die Palette an leisen, mit der Turbo-Spin-Echo‑Sequenz erzielbaren, Standard-Kontrasten (T1, T2 und PD) nun vervollständigt.
In einem anderen Ansatz wurde die Anwendbarkeit des CAT-Konzepts auf die Lautstärkereduktion untersucht. Beim CAT-Konzept wird die Messung in Einzelmessungen mit verschiedenen Parametern unterteilt. Bisher wurde dieser Ansatz zur SAR-Reduktion verwendet. Das Zentrum des k-Raums wird mit einer SAR-intensiven, kontrastgebenden Messung aufgenommen. Der verbleibende Teil des k-Raums wird mit einer SAR-reduzierten, bildstrukturrelevanten Messung aufgenommen. In dieser Arbeit wurde die Übertragung des CAT-Konzepts auf die Lautstärkereduktion untersucht. Anstelle von SAR-intensiven und SAR‑reduzierten Messungen, wurde hier die Unterteilung in „laute“ und „leise“ Messungen untersucht. Dabei wurden Überlegungen angestellt, die es für eine Vielzahl an Messungen ermöglichen, einen großen Teil der Messung leise zu gestalten ohne die Bildqualität oder den Bildkontrast zu verändern. In einem weiteren Schritt wurden Überlegungen für die Lautstärkereduktion der lauten Messungen vorgestellt. Anschließend wurden für eine GRE- und TSE-Sequenz Optimierungsschritte evaluiert und die Lautstärke gemessen.
Der hinsichtlich der Lautstärkeoptimierung herausforderndste Bildkontrast ist die diffusionsgewichtete Bildgebung. Diese besitzt eine Diffusions-Präparation zur Sichtbarmachung der Diffusivität, bei der die maximal mögliche Gradienten-Amplitude verwendet wird. Ebenso werden nach der Präparation die Daten mit einem EPI‑Akquisitionsmodul mit Blip-Gradienten akquiriert, das mit einem charakteristischem „Pfeifton“ einhergeht. Zum einen wurden die Gradientenformen konsequent angepasst. Zum anderen wurde eine Segmentierung der k-Raum-Akquisition in Auslese-Richtung verwendet, um die Gradienten‑Steig-Raten zu reduzieren. Auch hier konnte eine deutliche Lautstärkereduktion von bis zu 20,0 dB(A) erzielt werden. Dies wurde zulasten einer Messzeitverlängerung von 27% ‑ 34% im Vergleich zur Standard-Sequenz erreicht. Durch eine weitere Messzeitverlängerung um bis zu 23% kann die Lautstärke um weitere 0,9 dB(A) reduziert werden. Dabei hängt die genaue Messzeitverlängerung vom verwendeten GRAPPA-Faktor und der Anzahl der Auslese-Segmente ab. Die entstandene Sequenz wurde in mehreren Kliniken erfolgreich erprobt.
Bisher mussten bei MRT-Messungen stets Kompromisse zwischen „hoher Auflösung“, „hohem SNR“ und „geringer Messzeit“ getroffen werden. Als Anschauung dafür wurde das „Bermuda‑Dreieck der MRT“ eingeführt. Da alle drei Größen sich gegenseitig ausschließen, muss stets ein Mittelweg gefunden werden. Einige der in dieser Arbeit erzielten Erfolge bei der Lautstärkereduktion wurden auf Kosten einer verlängerten Messzeit erreicht. Daher ist es naheliegend, das „Bermuda-Dreieck der MRT“ um die Dimension der „geringen Lautstärke“ zu einer „Bermuda-Pyramide der MRT“ zu erweitern. Damit muss die Lautstärkeentwicklung in die Mittelweg‑Findung miteinbezogen werden.
Die in dieser Arbeit erzielten Lautstärken liegen in der Größenordnung zwischen 80 ‑ 85 dB(A). Somit können Messungen bei Verwendung von Gehörschutz angenehm für den Patienten durchgeführt werden. Durch neue Techniken der Zukunft wird es wahrscheinlich sein, höhere Auflösungen, höheres SNR oder kürzere Aufnahmedauern zu erzielen, beziehungsweise stattdessen diese in eine geringe Lautstärke „umzuwandeln“.
Ebenso werden möglicherweise auf der hardware-technischen Seite Fortschritte erzielt werden, so dass in neueren MRT-Scannergenerationen mehr Wert auf die Lärmdämmung gelegt wird und somit der softwarebasierten Lautstärkereduktion einen Schritt entgegen gekommen wird. Damit könnten zukünftige Patienten-Messungen gänzlich ohne störenden Gehörschutz durchgeführt werden.
Diese Arbeit befasst sich mit der Konzeption, Umsetzung und Charakterisierung eines Rönt- genmikroskops für harte Röntgenstrahlung mit der Möglichkeit zur dreidimensionalen Bild- gebung. Der vorgestellte Aufbau basiert auf geometrischer Vergrößerung und verzichtet im Gegensatz zu anderen Röntgenmikroskopiemethoden auf den Einsatz optischer Elemente. Dreidimensionale Bildgebung wird durch einen linearlaminographischen Aufnahmemodus realisiert, bei dem unterschiedliche Durchstrahlungsrichtungen durch das Objekt durch eine relative Verschiebung von Quelle und Detektor zustande kommen. Die Röntgenquelle des Mikroskops besteht aus einer zu einer Nanofokusröntgenröhre um- gebauten Elektronenmikrosonde mit 30 kV Beschleunigungsspannung (dies entspricht einer Wellenlänge von bis zu 0,041 nm). Durch die Elektronenoptik kann ein intensiver Elektronen- strahl anstelle eine Probe auf ein Transmissionstarget fokussiert werden. In dieser Arbeit wird eine Möglichkeit evaluiert, die Schichtdicke der röntgenaktiven Schicht des Transmissionstar- gets für die gegebene Beschleunigungsspannung zu optimieren. Dabei werden eine Schichtdi- cke für maximale Röntgenleistung (700 nm Wolfram) und eine für maximale Röntgenleistung bezogen auf die entstehende Quellfleckgröße (100 nm Wolfram) identifiziert. Dadurch erreicht dieses System eine laterale Ortsauflösung von 197 nm, gemessen an einem Siemensstern. Diese ist eine Größenordnung besser als bei modernen SubμCT-Anlagen, die zur zerstörungsfrei- en Prüfung eingesetzt werden, und einen Faktor 2 besser als bei Laborröntgenmikroskopen basierend auf Fresnel’schen Zonenplatten. Abgesehen von der lateralen Auflösung bei hochkontrastigen Objekten werden auch die Abbil- dungseigenschaften für schwach absorbierende Proben mit Inline-Phasenkontrastbildgebung untersucht. Dazu wird eine Methode entwickelt mit der anhand der gegebenen Anlagenpara- meter der optimale Quell-Objekt-Abstand zur Maximierung des Fringe-Kontrasts gefunden werden kann. Dabei wird die Ausprägung des Fringe-Kontrasts auf die Phase −iα zurück geführt. Das vorgeschlagene Modell wird durch Messungen am Röntgenmikroskop und an einer weiteren Röngtenanlage verifiziert. Zur Beurteilung der dreidimensionalen Bildgebung mit dem vorgeschlagenen linearlaminogra- phischen Aufnahmemodus kann dieser auf eine konventionelle Computertomographie mit ein- geschränktem Winkelbereich zurückgeführt werden und so die maximal erreichbare Winkel- information bestimmt werden. Des Weiteren werden numerische Berechnungen durchgeführt, um die Einflüsse von Rauschen und geometrischen Vorgaben einschätzen zu können. Ein experimenteller Test des Laminographiesystems wird anhand eines hochkontrastigen (Fres- nel’sche Zonenplatte) und eines niederkontrastigen Objekts (Kohlefasergewebe) durchgeführt. Es zeigte sich, dass die laterale Auflösung während der dreidimensionalen Rekonstruktion gut erhalten bleibt, die Tiefenauflösung aber nicht die gleiche Qualität erreicht. Außerdem konnte festgestellt werden, dass die Tiefenauflösung sehr stark von der Geometrie und Zusammen- setzung des untersuchten Objekts abhängt.
Die bSSFP-Sequenz kombiniert kurze Akquisitionszeiten mit einem hohen Signal-zu-Rausch-Verhältnis, was sie zu einer vielversprechenden Bildgebungsmethode macht. Im klinischen Alltag ist diese Technik jedoch bisher - abgesehen von vereinzelten Anwendungen - kaum etabliert. Die Hauptgründe hierfür sind Signalauslöschungen in Form von Bandingartefakten sowie der erzielte T2/T1-gewichtete Mischkontrast. Das Ziel dieser Dissertation war die Entwicklung von Methoden zur Lösung der beiden genannten Limitationen, um so eine umfassendere Verwendung von bSSFP für die MR-Diagnostik zu ermöglichen.
Magnetfeldinhomogenitäten, die im Wesentlichen durch Suszeptibilitätsunterschiede oder Imperfektionen seitens der Scannerhardware hervorgerufen werden, äußern sich bei der bSSFP-Bildgebung in Form von Bandingartefakten. Mit DYPR-SSFP (DYnamically Phase-cycled Radial bSSFP) wurde ein Verfahren vorgestellt, um diese Signalauslöschungen effizient zu entfernen. Während für bereits existierende Methoden mehrere separate bSSFP-Bilder akquiriert und anschließend kombiniert werden müssen, ist für die Bandingentfernung mittels DYPR-SSFP lediglich die Aufnahme eines einzelnen Bildes notwendig. Dies wird durch die neuartige Kombination eines dynamischen Phasenzyklus mit einer radialen Trajektorie mit quasizufälligem Abtastschema ermöglicht. Die notwendigen Bestandteile können mit geringem Aufwand implementiert werden. Des Weiteren ist kein spezielles Rekonstruktionsschema notwendig, was die breite Anwendbarkeit des entwickelten Ansatzes ermöglicht. Konventionelle Methoden zur Entfernung von Bandingartefakten werden sowohl bezüglich ihrer Robustheit als auch bezüglich der notwendigen Messzeit übertroffen.
Um die Anwendbarkeit von DYPR-SSFP auch jenseits der gewöhnlichen Bildgebung zu demonstrieren, wurde die Methode mit der Fett-Wasser-Separation kombiniert. Basierend auf der Dixon-Technik konnten so hochaufgelöste Fett- sowie Wasserbilder erzeugt werden. Aufgrund der Bewegungsinsensitivät der zugrunde liegenden radialen Trajektorie konnten die Messungen unter freier Atmung durchgeführt werden, ohne dass nennenswerte Beeinträchtigungen der Bildqualität auftraten. Die erzielten Ergebnisse am Abdomen zeigten weder Fehlzuordnungen von Fett- und Wasserpixeln noch verbleibende Bandingartefakte.
Ein Nachteil der gewöhnlichen Dixon-basierten Fett-Wasser-Separation ist es, dass mehrere separate Bilder zu verschiedenen Echozeiten benötigt werden. Dies führt zu einer entsprechenden Verlängerung der zugehörigen Messzeit. Abhilfe schafft hier die Verwendung einer Multiecho-Sequenz. Wie gezeigt werden konnte, ermöglicht eine derartige Kombination die robuste, bandingfreie Fett-Wasser-Separation in klinisch akzeptablen Messzeiten.
DYPR-SSFP erlaubt die Entfernung von Bandingartefakten selbst bei starken Magnetfeldinhomogenitäten. Dennoch ist es möglich, dass Signalauslöschungen aufgrund des Effekts der Intravoxeldephasierung verbleiben. Dieses Problem tritt primär bei der Bildgebung von Implantaten oder am Ultrahochfeld auf. Als Abhilfe hierfür wurde die Kombination von DYPR-SSFP mit der sogenannten z-Shim-Technik untersucht, was die Entfernung dieser Artefakte auf Kosten einer erhöhten Messzeit ermöglichte.
Die mit DYPR-SSFP akquirierten radialen Projektionen weisen aufgrund des angewendeten dynamischen Phasenzyklus leicht verschiedene Signallevel und Phasen auf. Diese Tatsache zeigt sich durch inkohärente Bildartefakte, die sich jedoch durch eine Erhöhung der Projektionsanzahl effektiv reduzieren lassen. Folglich bietet es sich in diesem Kontext an, Anwendungen zu wählen, bei denen bereits intrinsisch eine verhältnismäßig hohe Anzahl von Projektionen benötigt wird. Hierbei hat sich gezeigt, dass neben der hochaufgelösten Bildgebung die Wahl einer 3D radialen Trajektorie eine aussichtsreiche Kombination darstellt. Die in der vorliegenden Arbeit vorgestellte 3D DYPR-SSFP-Technik erlaubte so die isotrope bandingfreie bSSFP-Bildgebung, wobei die Messzeit im Vergleich zu einer gewöhnlichen bSSFP-Akquisition konstant gehalten werden konnte. Verbleibende, durch den dynamischen Phasenzyklus hervorgerufene Artefakte konnten effektiv mit einem Rauschunterdrückungsalgorithmus reduziert werden. Anhand Probandenmessungen wurde gezeigt, dass 3D DYPR-SSFP einen aussichtsreichen Kandidaten für die Bildgebung von Hirnnerven sowie des Bewegungsapparats darstellt.
Während die DYPR-SSFP-Methode sowie die darauf beruhenden Weiterentwicklungen effiziente Lösungen für das Problem der Bandingartefakte bei der bSSFP-Bildgebung darstellen, adressiert die vorgestellte RA-TOSSI-Technik (RAdial T-One sensitive and insensitive Steady-State Imaging) das Problem des bSSFP-Mischkontrasts. Die Möglichkeit der Generierung von T2-Kontrasten basierend auf der bSSFP-Sequenz konnte bereits in vorausgehenden Arbeiten gezeigt werden. Hierbei wurde die Tatsache ausgenutzt, dass der T1-Anteil des Signalverlaufs nach Beginn einer bSSFP-Akquisition durch das Einfügen von Inversionspulsen in ungleichmäßigen Abständen aufgehoben werden kann. Ein so akquiriertes Bild weist folglich einen reinen, klinisch relevanten T2-Kontrast auf. Die im Rahmen dieser Arbeit vorgestellte Methode basiert auf dem gleichen Prinzip, jedoch wurde anstelle einer gewöhnlichen kartesischen Trajektorie eine radiale Trajektorie in Kombination mit einer KWIC-Filter-Rekonstruktion verwendet. Somit können bei gleichbleibender oder sogar verbesserter Bildqualität aus einem einzelnen, mit RA-TOSSI akquirierten Datensatz verschiedene T2-Wichtungen als auch gewöhnliche T2/T1-Wichtungen generiert werden. Mittels Variation der Anzahl der eingefügten Inversionspulse konnte ferner gezeigt werden, dass es neben den besagten Wichtungen möglich ist, zusätzliche Kontraste zu generieren, bei denen verschiedene Substanzen im Bild ausgelöscht sind. Diese Substanzen können am Beispiel der Gehirnbildgebung Fett, graue Masse, weiße Masse oder CSF umfassen und zeichnen sich neben den reinen T2-Kontrasten durch eine ähnlich hohe klinische Relevanz aus. Die mögliche Bedeutung der vorgestellten Methode für die klinische Verwendung wurde durch Messungen an einer Gehirntumorpatientin demonstriert.
Zusammenfassend lässt sich sagen, dass die im Rahmen dieser Dissertation entwickelten Techniken einen wertvollen Beitrag zur Lösung der eingangs beschriebenen Probleme der bSSFP-Bildgebung darstellen. Mit DYPR-SSFP akquirierte Bilder sind bereits mit bestehender, kommerzieller Rekonstruktionssoftware direkt am Scanner rekonstruierbar. Die Software für die Rekonstruktion von RA-TOSSI-Datensätzen wurde für Siemens Scanner implementiert. Folglich sind beide Methoden für klinische Studien einsetzbar, was gleichzeitig den Ausblick dieser Arbeit darstellt.
Das Ziel dieser Arbeit war die Entwicklung und die Anfertigung eines 3D Erdfeld-NMR Tomographen, um damit die benötigte Technik der MR eines MR-MPI-Tomographen am Lehrstuhl zu etablieren. Daraufhin wurden alle nötigen Komponenten für ein komplettes 3D Erdfeld-NMR-System entwickelt, gebaut und getestet. Mit diesem Wissen wurde in enger Zusammenarbeit mit der MPI-Arbeitsgruppe am Lehrstuhl ein multimodaler MR-MPI-Tomograph angefertigt und die prinzipielle Machbarkeit der technischen Kombination dieser zwei Modalitäten (MRT/MPI) in einer einzigen Apparatur gezeigt.
Auf diesem Entwicklungsweg sind zusätzlich innovative Systemkomponenten entstanden, wie der Bau eines neuen Präpolarisationssystems, mit dem das Präpolarisationsfeld kontrolliert und optimiert abgeschaltet werden kann. Des Weiteren wurde ein neuartiges 3D Gradientensystem entwickelt, das parallel und senkrecht zum Erdmagnetfeld ausgerichtet werden kann, ohne die Bildgebungseigenschaften zu verlieren. Hierfür wurde ein 3D Standard-Gradientensystem mit nur einer weiteren Spule, auf insgesamt vier Gradientenspulen erweitert. Diese wurden entworfen, gefertigt und anhand von Magnetfeldkarten ausgemessen. Anschließend konnten diese Ergebnisse mit der hier präsentierten Theorie und den Simulationsergebnissen übereinstimmend verglichen werden.
MPI (Magnetic Particle Imaging) ist eine neue Bildgebungstechnik mit der nur Kontrastmittel detektiert werden können. Das hat den Vorteil der direkten und eindeutigen Detektion von Kontrastmitteln, jedoch fehlt die Hintergrundinformation der Probe. Wissenschaftliche Arbeiten prognostizieren großes Potential, die Hintergrundinformationen der MRT mit den hochauflösenden Kontrastmittelinformationen mittels MPI zu kombinieren. Jedoch war es bis jetzt nicht möglich, diese beiden Techniken in einer einzigen Apparatur zu etablieren. Mit diesem Prototyp konnte erstmalig eine MR-MPI-Messung ohne Probentransfer durchgeführt und die empfindliche Lokalisation von Kontrastmittel mit der Überlagerung der notwendigen Hintergrundinformation der Probe gezeigt werden. Dies ist ein Meilenstein in der Entwicklung der Kombination von MRT und MPI und bringt die Vision eines zukünftigen, klinischen, multimodalen MR-MPI-Tomographen ein großes Stück näher.
Die MRT hat sich in den letzten Jahren zu einem wichtigen Instrument in der Diagnostik von Herzerkrankungen entwickelt. Da sie ohne ionisierende Strahlung auskommt, stellt sie vor allem auch eine nichtinvasive Alternative zu den nuklearmedizinischen Verfahren und der Computertomographie dar. Im speziellen ermöglicht die kardiale MRT die ortsaufgelöste Darstellung des Herzens mit einer Vielzahl an Kontrasten. Neben der Morphologie können damit auch zahlreiche Funktionsparameter des Herzens, wie die Ejektionsfraktion des linken Ventrikels, oder die Viabilität und Perfusion des Herzmuskels untersucht werden. Atmung und Herzbewegung stellen allerdings große Anforderungen an die MR-Herzbildgebung. Die beiden Störfaktoren limitieren den Zeitraum, der zur Bildakquisition zur Verfügung steht und erzeugen so Konflikte zwischen räumlicher Auflösung, anatomischer Abdeckung, zeitlicher Auflösung und dem Signal-zu-Rausch-Verhältnis (SNR). Ferner ergibt sich für die meisten eingesetzten Verfahren eine erhöhte Komplexität. Die Bildgebungssequenzen müssen mittels EKG an den Herzrhythmus des Patienten angepasst und die Bildakquisitionen im Atemanhaltezustand durchgeführt werden. In manchen Fällen ist sogar eine Aufspaltung der Messung in mehrere Einzelakquisitionen nötig, was wiederum die Dauer der Untersuchungen verlängert und den Patientenkomfort reduziert.
Mit technischen Entwicklungen im Bereich der Gradienten und der Empfangsspulen sowie durch den Einsatz dedizierter Bildgebungstechniken konnten in den letzten Jahren signifikante Verbesserungen erzielt und der Stellenwert der MR-Bildgebung in der Herzdiagnostik erhöht werden. Von großer Bedeutung sind dabei auch Beschleunigungsverfahren wie die Parallele Bildgebung, die eine deutliche Verkürzung der Datenakquisition ermöglichen und so den Einfluss von Atmung und Herzbewegung wirksam reduzieren. Die Beschleunigung wird dabei grundsätzlich durch eine unvollständige Datenakquisition bzw. Unterabtastung des k-Raums erzielt, welche im Zuge der Bildrekonstruktion durch Ausnutzen zusätzlich vorhandener Informationen kompensiert wird. Bei der Parallelen Bildgebung ersetzen beispielsweise mehrere um das Objekt herum angeordnete Empfangsspulen die zum Teil unvollständig durchgeführte Gradientenbasierte Ortskodierung. Die Beschleunigungsverfahren sind allerdings wegen der verringerten Datenaufnahme auch immer mit einer Reduktion des SNR verbunden.
Eine alternative Strategie zur Beschleunigung der 2D-Bildgebung mit mehreren Schichten stellt die simultane Multischichtbildgebung mit Multi-Slice Controlled Aliasing In Parallel Imaging Results In Higher Acceleration(MS-CAIPIRINHA) dar. Anders als bei der konventionellen Parallelen Bildgebung wird die Beschleunigung hier nicht durch eine reduzierte Datenaufnahme erzielt. Vielmehr werden Multiband-RF-Pulse eingesetzt, um die Spins in mehreren Schichten gleichzeitig anzuregen. Durch Anwenden schichtspezifischer RF-Phasenzyklen wird die Phase der Spins individuell in jeder Schicht moduliert, wodurch sich eine gegenseitige Verschiebung der Schichten im FOV ergibt. Die Verschiebung erleichtert die Separation der gleichzeitig angeregten Schichten mit Verfahren der Parallelen Bildgebung. Sie erlaubt außerdem eine Minimierung der bei der Rekonstruktion entstehenden Rauschverstärkung. Die Multischichtbildgebungstechnik zeichnet sich gegenüber der konventionellen Parallelen Bildgebung durch ein wesentlich höheres SNR und durch eine Bildrekonstruktion mit geringeren Rekonstruktionsfehlern aus.
In dieser Dissertation wurden verschiedene Strategien zur Anwendung von MS-CAIPIRINHA in der MRT des Herzens präsentiert sowie ihre Vorund Nachteile gegenübergestellt. Im Allgemeinen ermöglichen die vorgestellten Konzepte eine hinsichtlich des SNR sehr effiziente Erweiterung der
anatomischen Abdeckung. Unter anderem wurde eine Möglichkeit vorgestellt, mit der es uneingeschränkt gelingt, MS-CAIPIRINHA in der Bildgebung mit bSSFP-Sequenzen anzuwenden. Die Steady-State-Sequenz wird aufgrund ihres hohen intrinsischen SNR und vorteilhaften Kontrastverhaltens sehr häufig in der MRT des Herzens bei 1,5T eingesetzt. Wie auch die simultane Multischichtbildgebung erfordert sie zum Halten der Magnetisierung im stationären Zustand die Applikation eines dedizierten RF-Phasenzyklus während der Datenakquisition. Der Phasenzyklus der Sequenz ist allerdings nicht ohne Weiteres mit den Phasenzyklen der Multischichttechnik kompatibel, so dass eine Verknüpfung der beiden Verfahren bisher nur durch Aufspalten der Bildakquisition in mehrere Teilmessungen gelang. Mit dem in Kapitel 5 vorgestellten Konzept ist diese zumeist impraktikable Segmentierung nicht mehr erforderlich. Generalisierte RF-Phasenzyklen, die sowohl die Anforderungen der Sequenz, als auch die der Multischichtbildgebung erfüllen, ermöglichen eine uneingeschränkte Anwendung der Multischichttechnik in der Bildgebung mit bSSFP oder vergleichbaren Steady-State-Sequenzen. Die Multischichttechnik ist damit auch bei Untersuchungen in Echtzeit oder mit Magnetisierungspräparation – Verfahren, die unter anderem in der MR-Herzdiagnostik Verwendung finden – einsetzbar. Anhand von Echtzeit-, Cine- und First-Pass-Herzperfusionsuntersuchungen am menschlichen Herzen konnte die Anwendbarkeit des Konzepts erfolgreich demonstriert werden. Durch die Akquisition zweier Schichten in der Zeit, die normalerweise zur Bildgebung einer einzelnen Schicht benötigt wird, gelang eine Verdoppelung der anatomischen Abdeckung bei unverändert hoher Bildqualität. Bei den Herzperfusionsuntersuchungen konnten je RR-Intervall sechs Schichten akquiriert werden. Bei Echtzeit- und Cine-Messungen erlaubt das Konzept eine signifikante Reduktion der Anzahl der Atemanhaltezustände und dementsprechend eine wirksame Verkürzung der Patientenuntersuchung und eine Verbesserung des Patientenkomforts.
In Kapitel 6 wurde eine effiziente Strategie zur Anwendung der simultanen Multischichtbildgebung in der First-Pass-Herzperfusionsbildgebung bei 3T vorgestellt. Es wurde gezeigt, dass durch den Einsatz von MS-CAIPIRINHA mit Beschleunigungsfaktoren, die größer sind als die Anzahl der simultan angeregten Schichten, neben der anatomischen Abdeckung auch die räumliche Auflösung innerhalb der Bildgebungsschicht erhöht werden kann. Beide Verbesserungen sind für die MR-gestützte Diagnostik der Koronaren Herzerkrankung von Bedeutung. Während mit einer hohen räumlichen Auflösung subendokardiale und transmurale Infarktareale unterschieden werden können, erleichtert eine hohe anatomische Abdeckung die genaue Eingrenzung hypoperfundierter Bereiche. Das grundsätzliche Prinzip der vorgestellten Strategie besteht in der Kombination zweier unterschiedlicher Beschleunigungsansätze: Zur Verbesserung der anatomischen Abdeckung kommt die simultane Multischichtbildgebung zum Einsatz. Zusätzlich zur gleichzeitigen Anregung mehrerer Schichten wird der k-Raum regelmäßig unterabgetastet. Die dabei erzielte Beschleunigung wird zur Verbesserung der räumlichen Auflösung eingesetzt. Die Bildrekonstruktion erfolgt mit Verfahren der Parallelen Bildgebung. Der Vorteil des Konzepts liegt insbesondere im vollständigen Erhalt der Datenakquisitionszeit gegenüber einer unbeschleunigten Messung mit Standardabdeckung und -auflösung. Anders als bei konventionellen Beschleunigungsverfahren wirken sich lediglich die Verkleinerung der Voxelgröße sowie die Rauschverstärkung der Bildrekonstruktion SNR-reduzierend aus. Die Rauschverstärkung wird dabei, durch die gegenseitige Verschiebung der simultan angeregten Schichten im FOV, so gering wie möglich gehalten. Die Anwendbarkeit des Konzepts konnte anhand von Simulationen sowie Untersuchungen an Probanden und Herzinfarktpatienten erfolgreich demonstriert werden. Simultanes Anregen zweier Schichten und 2,5-faches Unterabtasten des k-Raums ermöglichte die Durchführung von Untersuchungen mit einer anatomischen Abdeckung von sechs bis acht Schichten je RR-Intervall und einer räumlichen Auflösung von 2,0×2,0×8,0mm3. Es konnte gezeigt werden, dass die angewandte GRAPPA-Rekonstruktion, trotz der effektiv fünffachen Beschleunigung, robust und im Wesentlichen mit geringer Rauschverstärkung durchführbar ist. Bildqualität und SNR waren für eine sektorweise Absolutquantifizierung der Myokardperfusion ausreichend, während die hohe räumliche Auflösung die Abgrenzung kleiner subendokardialer Perfusionsdefizite ermöglichte. Aufgrund seiner großen Flexibilität und recht einfachen Implementierbarkeit ist das Beschleunigungskonzept vielversprechend hinsichtlich einer Anwendung in der klinischen Routine. Die diesbezügliche Tauglichkeit ist allerdings in weiterführenden Patientenstudien noch zu evaluieren.
Alternativ zu diesem Konzept wurde in Kapitel 7 noch eine weitere, ebenfalls auf MS-CAIPIRINHA basierende Strategie für die First-Pass-Herzperfusionsbildgebung bei 3T mit großer anatomischer Abdeckung und hoher räumlicher Auflösung vorgestellt. Wie zuvor bestand die Grundidee des Konzepts darin, MS-CAIPIRINHA mit Beschleunigungsfaktoren anzuwenden, welche größer sind als die Anzahl der simultan angeregten Schichten und die Vergrößerung der anatomischen Abdeckung durch simultanes Anregen mehrerer Schichten zu realisieren. Um allerdings die bei der Bildrekonstruktion und Schichtseparation entstehende Rauschverstärkung zu minimieren, wurde zur Verbesserung der räumlichen Auflösung innerhalb der Schicht das nichtlineare Beschleunigungsverfahren Compressed Sensing zum Einsatz gebracht. Die erst in den letzten Jahren entwickelte Technik ermöglicht die exakte Rekonstruktion zufällig unterabgetasteter Daten, sofern bekannt ist, dass sich das rekonstruierte Bild in eine wohldefinierte sparse Darstellung überführen lässt. Neben der Erreichbarkeit hoher Beschleunigungsfaktoren bietet Compressed Sensing den Vorteil einer Bildrekonstruktion ohne signifikante Rauscherhöhung. Zur Einbindung des Verfahrens in das Multischichtbildgebungskonzept erfolgt die für die Verbesserung der Auflösung nötige Unterabtastung des k-Raums, zufällig und inkohärent. Zur Bildrekonstruktion sind zwei Teilschritte erforderlich. Im ersten Teilschritt werden die durch die zufällige Unterabtastung entstandenen inkohärenten Artefakte mit Compressed Sensing entfernt, im zweiten die gleichzeitig angeregten Schichten mit Verfahren der Parallelen MRT separiert. Es konnte gezeigt werden, dass die Kombination aus Compressed Sensing und MS-CAIPIRINHA eine Reduktion der inhomogenen Rauschverstärkung ermöglicht und zur Durchführung von qualitativen First-Pass-Herzperfusionsuntersuchungen mit einer Abdeckung von sechs bis acht Schichten je RR-Intervall sowie einer räumlichen Auflösung von 2,0 × 2,0 × 8,0mm3 geeignet ist. Des Weiteren konnte gezeigt werden, dass das angewandte Multischicht-Bildgebungskonzept einer Anwendung des entsprechenden Compressed-Sensing-Konzepts ohne simultane Multischichtanregung überlegen ist. Es stellte sich allerdings auch heraus, dass die rekonstruierten Bilder mit systematischen Fehlern behaftet sind, zu welchen auch ein signifikanter rekonstruktionsbedingter Verlust an zeitlicher Auflösung zählt. Dieser kann zu einer Verzerrung quantitativ bestimmter Perfusionswerte führen und verhindert so robuste quantitative Messungen der Myokardperfusion. Es ist außerdem davon auszugehen, dass auch abrupte Signalveränderungen, die bei Arrhythmien oder Bewegung auftreten, nur sehr ungenau rekonstruiert werden können. Die Systematischen Rekonstruktionsfehler konnten anhand zweier Verfahren, einer Monte-Carlo-Simulation sowie einer Analyse der lokalen Punktantworten präzise Untersucht werden. Die beiden Analysemethoden ermöglichten einerseits die genaue Bestimmung systematischer und statistischer Abweichungen der Signalamplitude und andererseits die Quantifizierung rekonstruktionsbedingter zeitlicher und räumlicher Auflösungsverluste. Dabei konnte ein Mangel an Sparsität als grundlegende Ursache der Rekonstruktionsfehler ermittelt werden. Die bei der Analyse eingesetzten Verfahren erleichtern das Verständnis von Compressed Sensing und können beispielsweise bei der Entwicklung nichtlinearer Beschleunigungskonzepte zur Bildqualitätsanalyse eingesetzt werden.
Die klinische Magnetresonanztomografie (MRT) operiert meist bei einer Magnetfeldstärke von 1,5 Tesla (T). Es halten jedoch immer mehr 3T MRT-Systeme Einzug
im klinischen Alltag und seit kurzem auch 7T Ganzkörper-MRT-Systeme in die Grundlagenforschung. Höhere Magnetfeldstärken führen grundsätzlich zum einem
verbesserten Signal-zu-Rausch- Verhältnis, welches sich gewinnbringend in eine erhöhte Ortsauflösung oder schnellere Bildaufnahme äußert. Ein Nachteil ist aber die dabei im Patienten deponierte Hochfrequenz-Energie (HF-Energie), welche quadratisch mit ansteigender Feldstärke zusammenhängt. Charakterisiert wird diese durch die
spezifische Absorptionsrate (SAR) und ist durch vorgegebene gesetzliche Grenzwerte beschränkt. Moderne, SAR-intensive MRT-Techniken (z.B. Multispinecho-Verfahren)
sind bereits bei 1,5T nahe den zulässigen SAR-Grenzwerten und somit nicht unverändert auf Hochfeld-Systeme übertragbar. In dieser Arbeit soll das Potential modularer
Hybrid-MRT-Techniken genutzt werden, um das SAR bei besonders SAR-intensiven MRT-Verfahren ohne signifikante Einbußen in der Bildqualität erheblich zu verringern. Die Hybrid-Techniken sollen in Verbindung mit zusätzlichen Methoden der SAR-Reduzierung den breiteren Einsatz SAR-intensiver MRT-Techniken an hohen Magnetfeldern ermöglichen. Ziel dieser Arbeit ist es, routinefähige und SAR-reduzierte MRT-Standard-Protokolle für neuroanatomische Humanuntersuchungen mit räumlicher Höchstauflösung bei Magnetfeldern von 3T und 7T zu etablieren.
Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren.
Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten.
Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich.