Refine
Has Fulltext
- yes (3)
Is part of the Bibliography
- yes (3)
Document Type
- Doctoral Thesis (3)
Keywords
- CT (1)
- Computed Tomography (1)
- Computertomografie (1)
- Geräteentwicklung (1)
- High Resolution (1)
- Kernspintomografie (1)
- Kernspintomographie (1)
- Lung (1)
- Lunge (1)
- MRI (1)
Institute
- Graduate School of Science and Technology (3) (remove)
Sonstige beteiligte Institutionen
The focus of the work concerned the development of a series of MRI techniques that were specifically designed and optimized to obtain quantitative and spatially resolved information about characteristic parameters of the lung. Three image acquisition techniques were developed. Each of them allows to quantify a different parameter of relevant diagnostic interest for the lung, as further described below:
1) The blood volume fraction, which represents the amount of lung water in the intravascular compartment expressed as a fraction of the total lung water. This parameter is related to lung perfusion.
2) The magnetization relaxation time T\(_2\) und T*\(_2\)
, which represents the component of T\(_2\) associated with the diffusion of water molecules through the internal magnetic field gradients of the lung. Because the amplitude of these internal gradients is related to the alveolar size, T\(_2\) und T*\(_2\) can be used to obtain information about the microstructure of the lung.
3) The broadening of the NMR spectral line of the lung. This parameter depends on lung inflation and on the concentration of oxygen in the alveoli. For this reason, the spectral line broadening can be regarded as a fingerprint for lung inflation; furthermore, in combination with oxygen enhancement, it provides a measure for lung ventilation.
Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren.
Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten.
Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich.
Ziel dieser Arbeit ist es, die quantitative MRT in den Fokus zu rücken. In den letzten Jahren hat sich auf diesem Forschungsgebiet viel weiterentwickelt und es wurden verschiedenste Sequenzen und Methoden vorgestellt, um insbesondere Relaxationszeitparameter quantitativ in kurzer Zeit zu messen. Steady-State-Sequenzen eignen sich besonders für diese Thematik, da sie kurze Messzeiten benötigen und darüber hinaus ein relativ hohes SNR besitzen. Speziell die IR TrueFISP-Sequenz bietet für die Parameterquantifizierung viel Potential. Ursprünglich wurde diese Sequenz an der Universität Würzburg zur simultanen Messung von T1- und T2-Relaxationszeiten vorgestellt und hinsichtlich der Zeiteffizienz weiterentwickelt. In dieser Arbeit wurde ein neuartiger iterativer Rekonstruktionsansatz für die IR TrueFISP-Sequenz entwickelt, der auf einer Hauptkomponentenanalyse (PCA) basiert und sich die glatten Signalverläufe zu Nutze macht. Aufgrund der hohen Zeitauflösung dieser Rekonstruktionstechnik werden dabei auch Gewebekomponenten mit kurzen Relaxationszeiten detektierbar. Weiterhin bewahrt der Rekonstruktionsansatz Informationen mehrerer Gewebekomponenten innerhalb eines Voxels und ermöglicht damit eine relaxographische Untersuchung. Insbesondere beim Menschen führen der Partialvolumeneffekt und die Mikrostruktur des Gewebes zu Signalverläufen, die ein multi-exponentielles Signal liefern. Die MR-Relaxographie, also die Darstellung von Relaxationszeitverteilungen innerhalb eines Voxels, stellt eine Möglichkeit dar, um die beteiligten Gewebekomponenten aus dem überlagerten Signalverlauf zu extrahieren. Insgesamt bilden die optimierte Relaxometrie mit der Möglichkeit der analytischen Korrektur von Magnetfeldinhomogenitäten und die beschleunigte Relaxographie die Hauptteile dieser Dissertation. Die Hauptkapitel werden im Folgenden noch einmal gesondert zusammengefasst.
Die simultane Aufnahme der quantitativen T1- und T2-Parameter-Karten kann mit einem
Goldenen-Winkel-basiertem radialen IR TrueFISP-Readout in ungefähr 7 Sekunden pro
Schicht erreicht werden. Die bisherige Rekonstruktionstechnik mit dem KWIC-Filter ist
durch dessen breite Filter-Bandbreite und somit in der zeitlichen Auflösung limitiert. Besonders bei hohen räumlichen Frequenzen wird eine sehr große Anzahl an Projektionen
zusammengefasst um ein Bild zu generieren. Dies sorgt dafür, dass Gewebekomponenten mit kurzer T1*-Relaxationszeit (z.B. Fett oder Myelin) nicht akkurat aufgelöst werden können. Um dieses Problem zu umgehen, wurde die T1* shuffling-Rekonstruktion entwickelt, die auf dem T2 Shuffling-Ansatz basiert. Diese Rekonstruktionstechnik macht sich die glatten Signalverläufe der IR TrueFISP-Sequenz zu Nutze und ermöglicht die Anwendung einer PCA. Die iterative Rekonstruktion sorgt dafür, dass mit nur acht kombinierten Projektionen pro generiertem Bild eine merklich verbesserte temporäre Auflösung erzielt werden kann. Ein Nachteil ist jedoch das stärkere Rauschen in den ersten Bildern der Zeitserie bedingt durch die angewandte PCA. Dieses verstärkte Rauschen äußert sich in den leicht erhöhten Standardabweichungen in den berechneten Parameter-Karten. Jedoch ist der Mittelwert näher an den Referenzwerten im Vergleich zu den Ergebnissen mit dem KWIC-Filter. Letztendlich kann man sagen, dass die Ergebnisse leicht verrauschter, aber exakter sind.
Mittels zusätzlichen Regularisierungstechniken oder Vorwissen bezüglich des Rauschlevels
wäre es zudem noch möglich, das SNR der ersten Bilder zu verbessern, um dadurch den
beschriebenen Effekt zu verringern.
Grundsätzlich hängt die Genauigkeit von IR TrueFISP vom T1/T2-Verhältnis des betreffenden
Gewebes und dem gewählten Flipwinkel ab. In dieser Arbeit wurde der Flipwinkel besonders für weiße und graue Masse im menschlichen Gehirn optimiert. Mit den verwendeten 35° wurde er außerdem etwas kleiner gewählt, um zudem Magnetisierungstransfereffekte zu minimieren. Mit diesen Einstellungen ist die Präzision vor allem für hohe T1- und niedrige T2-Werte sehr gut, wird jedoch insbesondere für höhere T2-Werte schlechter. Dies ist aber ein generelles Problem der IR TrueFISP-Sequenz und hängt nicht mit der entwickelten Rekonstruktionsmethode zusammen. Außerdem wurde im fünften Kapitel eine
Akquisitionstechnik vorgestellt, die eine 3D-Abdeckung der quantitativen Messungen des Gehirns in klinisch akzeptabler Zeit von unter 10 Minuten erzielt. Dies wird durch Einsatz der parallelen Bildgebung erreicht, da eine Kombination aus radialer Abtastung in der Schicht und kartesischer Aufnahme in Schichtrichtung (Stack-of-Stars) vorliegt.
Ein großes Problem in der Steady-State-Sequenz (und somit auch bei IR TrueFISP) sind
Magnetfeldinhomogenitäten, die durch Suszeptibilitätsunterschiede verschiedener Gewebe und/oder Inhomogenitäten des Hauptmagnetfeldes hervorgerufen werden. Diese führen zu Signalauslöschungen und damit verbunden zu den beschriebenen Banding-Artefakten. Mithilfe der analytisch ermittelten Korrekturformeln ist es nun möglich, die berechneten (T1,T2)-Wertepaare unter Berücksichtigung der tatsächlich auftretenden Off- Resonanzfrequenz für einen großen Bereich zu korrigieren. An den kritischen Stellen, an denen die Bandings auftreten, liefert jedoch auch diese Korrektur keine brauchbaren Ergebnisse. Grundsätzlich ist es für die Genauigkeit der Ergebnisse stets zu empfehlen, die Flipwinkel- und B0-Karte zusätzlich mit aufzunehmen, um diese Parameter für die quantitative Auswertung exakt zu kennen. Mit den beschriebenen Methoden aus Kapitel 6 könnte es prinzipiell auch möglich sein, die Off-Resonanzfrequenz aus dem Signalverlauf zu ermitteln und auf die zusätzliche Messung der B0-Karte zu verzichten. B0-Änderungen während der Messung, die von der Erwärmung der passiven Shim-Elemente im MR-System hervorgerufen werden, sind kaum zu korrigieren. Ein stabiler Scanner ohne B0-Drift ist deshalb für quantitative Auswertungen erforderlich.
Die erwähnte Messzeit von 7 Sekunden pro Schicht garantiert, dass auch Gewebe mit längeren Relaxationskomponenten annähernd im Steady-State sind, was wiederum für das Umkehren des Signals in den abklingenden Verlauf gegen Null und die anschließende
Multikomponentenanalyse (vgl. Kapitel 7) notwendig ist. Mit der inversen Laplace-
Transformation ist es innerhalb eines Voxels möglich, Signalverläufe auf mehrere Komponenten hin zu untersuchen. Der ursprünglich angenommene mono-exponentielle Verlauf wird durch ein multi-exponentielles Verhalten abgelöst, was vor allem in biologischem Gewebe eher der Wahrheit entspricht. Gewebe mit kurzen Relaxationskomponenten (T1* < 200 ms) sind klinisch relevant und mit T1* shuffling detektierbar. Vor allem Myelin innerhalb des Gehirns ist bei neurologischen Fragestellungen ein Indikator zur Diagnose im Frühstadium (z.B. für neurodegenerative Erkrankungen) und
deshalb von besonderem Interesse. Die Integration über verschiedene T1*-Zeitbereiche im
T1*-Spektrum ermöglicht dazu die Erstellung von Gewebekomponenten-Karten, mithilfe
derer klinische Auswertungen sinnvoll wären. Die Erstellung dieser Karten ist prinzipiell
möglich und funktioniert für mittlere und lange Gewebekomponenten recht gut. Die
klinisch relevanten kurzen Gewebekomponenten sind dagegen bei der radialen Aufnahme
mit nur einem Schuss noch nicht befriedigend. Deshalb wurde die Aufnahmetechnik in
eine quasi-zufällige kartesische Akquisition mit mehreren Schüssen weiterentwickelt. Die Ergebnisse wurden in Kapitel 7 vorgestellt und sind vielversprechend. Einzig die Messzeit sollte mit zusätzlichen Beschleunigungen noch weiter verkürzt und auf eine kartesische 3D-Akquisition erweitert werden.
Die Beschränkung auf T1*-Spektren bei der Multikomponentenanalyse und die Tatsache, dass deren Amplitude von einer Kombination von S0 und Sstst abhängen, führen dazu, dass es nicht ohne Weiteres möglich ist für einen einzelnen Gewebetyp an die T1- und T2-Information zu gelangen. In Kapitel 8 wurde gezeigt, dass dies mit einer zusätzlichen
Messung gelingen kann. Das finale Ergebnis dieser Messungen ohne und mit Inversion sind zweidimensionale Spektren, bei der für jede Gewebekomponente innerhalb eines Voxels der T1- und T2-Wert abgelesen werden kann. Wichtig hierbei ist die Tatsache, dass der verwendete Ansatz kein Vorwissen über die Anzahl der zu erwartenden Gewebekomponenten (Peaks) im Voxel voraussetzt. Auch bei dieser Methodik ist die Kenntnis über den tatsächlichen Flipwinkel von Bedeutung, da dieser in den Formeln zur Berechnung von T1 und T2 verwendet wird. Die Stabilität des B0-Feldes ist hier ebenso von enormer Bedeutung, da Änderungen zwischen den beiden Messungen zu einem unterschiedlichen Steady-State und somit zu Abweichungen bei den nachfolgenden Berechnungen führen, die auf den selben Steady-State-Wert ausgelegt sind.
Zusammenfassend lässt sich sagen, dass mit dieser Arbeit die Grundlagen für genauere
und robustere quantitative Messungen mittels Steady-State-Sequenzen gelegt wurden. Es
wurde gezeigt, dass sich Relaxationszeitspektren für jedes einzelne Voxel generieren lassen.
Dadurch ist eine verbesserte Auswertung möglich, um genauere Aussagen über die Zusammensetzung einer Probe (vor allem beim menschlichen Gewebe) treffen zu können. Zudem wurde die Theorie für ultraschnelle 2D-Relaxographie-Messungen vorgestellt. Erste”Proof of Principle“-Experimente zeigen, dass es möglich ist, 2D-Relaxationszeitspektren in sehr kurzer Zeit zu messen und graphisch darzustellen. Diese Aufnahme- und Datenverarbeitungstechnik ist in dieser Form einmalig und in der Literatur kann bis dato keine schnellere Methode gefunden werden.