Refine
Has Fulltext
- yes (4)
Is part of the Bibliography
- yes (4) (remove)
Document Type
- Doctoral Thesis (4)
Language
- German (4) (remove)
Keywords
- Compressed Sensing (4) (remove)
Institute
Sonstige beteiligte Institutionen
Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer Variabilität als Referenzstandard für die Bestimmung der kardialen Funktion betrachtet. Auch in der präklinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden Fällen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der präklinischen Kleintierbildgebung müssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemäßig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische Ansätze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. Während zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt repräsentierte, spielte sich in den letzten fünf Jahren vermehrt die von Donoho und Candès eingeführte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollständig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der Sparsität des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend für den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante Veränderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter Näherung als linear und stationär betrachtet werden, so repräsentiert die CS-Rekonstruktion eine nichtlineare und nichtstationäre Transformation. Objektinformation wird nicht mehr ortsunabhängig und proportional zur Intensität in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenüber der unterabgetasteten Messung als auch die Sparsität des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive Einschätzung der Bildqualität CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine Verkürzung der Messzeit ohne Verlust an Bildqualität, wobei letztere bisher größtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationär) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationären Verhaltens ohne Weiteres keine äquivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) für den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berücksichtigt die Ortsabhängigkeit der CS-Rekonstruktion und muss daher für jeden Ort (Pixel) eines Bildes bestimmt werden. Darüber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzuführen. Es wurde sowohl der Einfluss typischer Unterabtastschemata für CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der räumlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollständig abgetasteten Referenz zur Qualitätsbeurteilung zurückgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die Berücksichtigung der nominell höchsten Frequenzen k_max unerlässlich ist. Frühere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgeführten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfällig für zeitliches Blurring. Dieses resultiert aus der Unterdrückung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist für eine umfassende Analyse der Bildqualität auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-Verhältnisses (SNR) notwendig. Während Aliasing mit Hilfe der Einträge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten Qualitätsparameter ist eine robuste Bewertung der Bildqualität auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der Bildqualität behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der präklinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgeführt. Die Algorithmen für eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) Datensätze entwickelt und optimiert. Zunächst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder für jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollständig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollständig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter für jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-Mäusespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. Für die PI-Beschleunigung wurde der vollständig abgetastete k-Raum zunächst gleichmäßig unterabgetastet. Auf dem resultierenden Untergitter wurde zusätzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgeführt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. Zunächst wurde mittels CS das äquidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusätzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das äquidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollständig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollständig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung führte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. Während mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, führte ein höherer PI-Beschleunigungsfaktor zu einer leichten Verstärkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulässt. Die LPSF-Analyse zeigte einen Verlust der räumlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stärker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der präklinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik für die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden üblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. Für die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen präklinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische Funktionalität der Rekonstruktionstechnik bei einer Beschleunigung bezüglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollständig abgetasteten Datensatz waren vernachlässigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollständiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusätzliche Aliasing-Artefakte in den äußeren Partitionen. Die für radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch über das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung für die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkürzten Messzeit.
Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen.
Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen.
Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt.
Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist.
Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt.
Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war.
Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist.
In der heutigen Strahlentherapie kann durch eine am Linearbeschleuniger integrierte
Röntgenröhre eine 3D-Bildgebung vor der Bestrahlung durchgeführt werden. Die
sogenannte Kegel-Strahl-CT (Cone-Beam-CT, CBCT) erlaubt eine präzise Verifikation
der Patientenlagerung sowie ein Ausgleich von Lagerungsungenauigkeiten. Dem
Nutzen der verbesserten Patientenlagerung steht jedoch bei täglicher Anwendung eine
erhöhte, nicht zu vernachlässigbare Strahlenexposition des Patienten gegenüber. Eine
Verringerung des Dosisbeitrages bei der CBCT-Bildgebung lässt sich durch
Reduzierung des Stroms zur Erzeugung der Röntgenstrahlung sowie durch
Verringerung der Anzahl an Projektionen erreichen. Die so aufgenommen Projektionen
lassen sich dann aber nur durch aufwendige Rekonstruktionsverfahren zu qualitativ
hochwertigen Bilddatensätzen rekonstruieren. Ein Verfahren, dass für die
Rekonstruktion vorab vorhandene Vorwissensbilder verwendet, ist der Prior-Image-
Constrained-Compressed-Sensing-Rekonstruktionsalgorithmus (PICCS). Die Rekonstruktionsergebnisse
des PICCS-Verfahrens übertreffen die Ergebnisse des auf den
konventionellen Feldkamp-Davis-Kress-Algorithmus (FDK) basierenden Verfahrens,
wenn nur eine geringe Anzahl an Projektionen zur Verfügung steht. Allerdings können
bei dem PICCS-Verfahren derzeit keine großen Variationen in den Vorwissensbildern
berücksichtigt werden und führen zu einer geringeren Bildqualität. Diese Variationen
treten insbesondere durch anatomische Veränderungen wie Tumorverkleinerung oder
Gewichtsveränderungen auf. Das Ziel der vorliegenden Arbeit bestand folglich darin,
einen neuen vorwissensbasierten Rekonstruktionsalgorithmus zu entwickeln, der auf
Basis des PICCS-Verfahrens zusätzlich die Verwendung von lokalen
Verlässlichkeitsinformationen über das Vorwissensbild ermöglicht, um damit die
Variationen in den Vorwissensbildern bei der Rekonstruktion entsprechend
berücksichtigen zu können.
Die grundlegende Idee des neu entwickelten Rekonstruktionsverfahrens ist die
Annahme, dass die Vorwissensbilder aus Bereichen mit kleinen und großen Variationen
bestehen. Darauf aufbauend wird eine Gewichtungsmatrix erzeugt, die die Stärke der
Variationen des Vorwissens im Rekonstruktionsalgorithmus berücksichtigt. In
Machbarkeitsstudien wurde das neue Verfahren hinsichtlich der Verbesserung der Bildqualität unter Berücksichtigung gängiger Dosisreduzierungsstrategien untersucht.
Dazu zählten die Reduktion der Anzahl der Projektionen, die Akquisition von
Projektionen mit kleinerer Fluenz sowie die Verkleinerung des Akquisitionsbereiches.
Die Studien erfolgten an einem Computerphantom sowie insbesondere an
experimentellen Daten, die mit dem klinischen CBCT aufgenommen worden sind. Zum
Vergleich erfolgte die Rekonstruktion mit dem Standardverfahren basierend auf der
gefilterten Rückprojektion, dem Compressed Sensing- sowie dem konventionellen
PICCS-Verfahren.
Das neue Verfahren konnte in den untersuchten Fällen Bilddatensätze mit verbesserter
bis ausgezeichneter Qualität rekonstruieren, sogar dann, wenn nur eine sehr geringe
Anzahl an Projektionen oder nur Projektionen mit starkem Rauschen zur Verfügung
standen. Demgegenüber wiesen die Rekonstruktionsergebnisse der anderen
Algorithmen starke Artefakte auf. Damit eröffnet das neu entwickelte Verfahren die
Möglichkeit durch die Integration von Zuverlässigkeitsinformationen über die
vorhandenen Vorwissensbildern in den Rekonstruktionsalgorithmus, den Dosisbeitrag
bei der täglichen CBCT-Bildgebung zu minimieren und eine ausgezeichnete
Bildqualität erzielen zu können.
Die MRT hat sich in den letzten Jahren zu einem wichtigen Instrument in der Diagnostik von Herzerkrankungen entwickelt. Da sie ohne ionisierende Strahlung auskommt, stellt sie vor allem auch eine nichtinvasive Alternative zu den nuklearmedizinischen Verfahren und der Computertomographie dar. Im speziellen ermöglicht die kardiale MRT die ortsaufgelöste Darstellung des Herzens mit einer Vielzahl an Kontrasten. Neben der Morphologie können damit auch zahlreiche Funktionsparameter des Herzens, wie die Ejektionsfraktion des linken Ventrikels, oder die Viabilität und Perfusion des Herzmuskels untersucht werden. Atmung und Herzbewegung stellen allerdings große Anforderungen an die MR-Herzbildgebung. Die beiden Störfaktoren limitieren den Zeitraum, der zur Bildakquisition zur Verfügung steht und erzeugen so Konflikte zwischen räumlicher Auflösung, anatomischer Abdeckung, zeitlicher Auflösung und dem Signal-zu-Rausch-Verhältnis (SNR). Ferner ergibt sich für die meisten eingesetzten Verfahren eine erhöhte Komplexität. Die Bildgebungssequenzen müssen mittels EKG an den Herzrhythmus des Patienten angepasst und die Bildakquisitionen im Atemanhaltezustand durchgeführt werden. In manchen Fällen ist sogar eine Aufspaltung der Messung in mehrere Einzelakquisitionen nötig, was wiederum die Dauer der Untersuchungen verlängert und den Patientenkomfort reduziert.
Mit technischen Entwicklungen im Bereich der Gradienten und der Empfangsspulen sowie durch den Einsatz dedizierter Bildgebungstechniken konnten in den letzten Jahren signifikante Verbesserungen erzielt und der Stellenwert der MR-Bildgebung in der Herzdiagnostik erhöht werden. Von großer Bedeutung sind dabei auch Beschleunigungsverfahren wie die Parallele Bildgebung, die eine deutliche Verkürzung der Datenakquisition ermöglichen und so den Einfluss von Atmung und Herzbewegung wirksam reduzieren. Die Beschleunigung wird dabei grundsätzlich durch eine unvollständige Datenakquisition bzw. Unterabtastung des k-Raums erzielt, welche im Zuge der Bildrekonstruktion durch Ausnutzen zusätzlich vorhandener Informationen kompensiert wird. Bei der Parallelen Bildgebung ersetzen beispielsweise mehrere um das Objekt herum angeordnete Empfangsspulen die zum Teil unvollständig durchgeführte Gradientenbasierte Ortskodierung. Die Beschleunigungsverfahren sind allerdings wegen der verringerten Datenaufnahme auch immer mit einer Reduktion des SNR verbunden.
Eine alternative Strategie zur Beschleunigung der 2D-Bildgebung mit mehreren Schichten stellt die simultane Multischichtbildgebung mit Multi-Slice Controlled Aliasing In Parallel Imaging Results In Higher Acceleration(MS-CAIPIRINHA) dar. Anders als bei der konventionellen Parallelen Bildgebung wird die Beschleunigung hier nicht durch eine reduzierte Datenaufnahme erzielt. Vielmehr werden Multiband-RF-Pulse eingesetzt, um die Spins in mehreren Schichten gleichzeitig anzuregen. Durch Anwenden schichtspezifischer RF-Phasenzyklen wird die Phase der Spins individuell in jeder Schicht moduliert, wodurch sich eine gegenseitige Verschiebung der Schichten im FOV ergibt. Die Verschiebung erleichtert die Separation der gleichzeitig angeregten Schichten mit Verfahren der Parallelen Bildgebung. Sie erlaubt außerdem eine Minimierung der bei der Rekonstruktion entstehenden Rauschverstärkung. Die Multischichtbildgebungstechnik zeichnet sich gegenüber der konventionellen Parallelen Bildgebung durch ein wesentlich höheres SNR und durch eine Bildrekonstruktion mit geringeren Rekonstruktionsfehlern aus.
In dieser Dissertation wurden verschiedene Strategien zur Anwendung von MS-CAIPIRINHA in der MRT des Herzens präsentiert sowie ihre Vorund Nachteile gegenübergestellt. Im Allgemeinen ermöglichen die vorgestellten Konzepte eine hinsichtlich des SNR sehr effiziente Erweiterung der
anatomischen Abdeckung. Unter anderem wurde eine Möglichkeit vorgestellt, mit der es uneingeschränkt gelingt, MS-CAIPIRINHA in der Bildgebung mit bSSFP-Sequenzen anzuwenden. Die Steady-State-Sequenz wird aufgrund ihres hohen intrinsischen SNR und vorteilhaften Kontrastverhaltens sehr häufig in der MRT des Herzens bei 1,5T eingesetzt. Wie auch die simultane Multischichtbildgebung erfordert sie zum Halten der Magnetisierung im stationären Zustand die Applikation eines dedizierten RF-Phasenzyklus während der Datenakquisition. Der Phasenzyklus der Sequenz ist allerdings nicht ohne Weiteres mit den Phasenzyklen der Multischichttechnik kompatibel, so dass eine Verknüpfung der beiden Verfahren bisher nur durch Aufspalten der Bildakquisition in mehrere Teilmessungen gelang. Mit dem in Kapitel 5 vorgestellten Konzept ist diese zumeist impraktikable Segmentierung nicht mehr erforderlich. Generalisierte RF-Phasenzyklen, die sowohl die Anforderungen der Sequenz, als auch die der Multischichtbildgebung erfüllen, ermöglichen eine uneingeschränkte Anwendung der Multischichttechnik in der Bildgebung mit bSSFP oder vergleichbaren Steady-State-Sequenzen. Die Multischichttechnik ist damit auch bei Untersuchungen in Echtzeit oder mit Magnetisierungspräparation – Verfahren, die unter anderem in der MR-Herzdiagnostik Verwendung finden – einsetzbar. Anhand von Echtzeit-, Cine- und First-Pass-Herzperfusionsuntersuchungen am menschlichen Herzen konnte die Anwendbarkeit des Konzepts erfolgreich demonstriert werden. Durch die Akquisition zweier Schichten in der Zeit, die normalerweise zur Bildgebung einer einzelnen Schicht benötigt wird, gelang eine Verdoppelung der anatomischen Abdeckung bei unverändert hoher Bildqualität. Bei den Herzperfusionsuntersuchungen konnten je RR-Intervall sechs Schichten akquiriert werden. Bei Echtzeit- und Cine-Messungen erlaubt das Konzept eine signifikante Reduktion der Anzahl der Atemanhaltezustände und dementsprechend eine wirksame Verkürzung der Patientenuntersuchung und eine Verbesserung des Patientenkomforts.
In Kapitel 6 wurde eine effiziente Strategie zur Anwendung der simultanen Multischichtbildgebung in der First-Pass-Herzperfusionsbildgebung bei 3T vorgestellt. Es wurde gezeigt, dass durch den Einsatz von MS-CAIPIRINHA mit Beschleunigungsfaktoren, die größer sind als die Anzahl der simultan angeregten Schichten, neben der anatomischen Abdeckung auch die räumliche Auflösung innerhalb der Bildgebungsschicht erhöht werden kann. Beide Verbesserungen sind für die MR-gestützte Diagnostik der Koronaren Herzerkrankung von Bedeutung. Während mit einer hohen räumlichen Auflösung subendokardiale und transmurale Infarktareale unterschieden werden können, erleichtert eine hohe anatomische Abdeckung die genaue Eingrenzung hypoperfundierter Bereiche. Das grundsätzliche Prinzip der vorgestellten Strategie besteht in der Kombination zweier unterschiedlicher Beschleunigungsansätze: Zur Verbesserung der anatomischen Abdeckung kommt die simultane Multischichtbildgebung zum Einsatz. Zusätzlich zur gleichzeitigen Anregung mehrerer Schichten wird der k-Raum regelmäßig unterabgetastet. Die dabei erzielte Beschleunigung wird zur Verbesserung der räumlichen Auflösung eingesetzt. Die Bildrekonstruktion erfolgt mit Verfahren der Parallelen Bildgebung. Der Vorteil des Konzepts liegt insbesondere im vollständigen Erhalt der Datenakquisitionszeit gegenüber einer unbeschleunigten Messung mit Standardabdeckung und -auflösung. Anders als bei konventionellen Beschleunigungsverfahren wirken sich lediglich die Verkleinerung der Voxelgröße sowie die Rauschverstärkung der Bildrekonstruktion SNR-reduzierend aus. Die Rauschverstärkung wird dabei, durch die gegenseitige Verschiebung der simultan angeregten Schichten im FOV, so gering wie möglich gehalten. Die Anwendbarkeit des Konzepts konnte anhand von Simulationen sowie Untersuchungen an Probanden und Herzinfarktpatienten erfolgreich demonstriert werden. Simultanes Anregen zweier Schichten und 2,5-faches Unterabtasten des k-Raums ermöglichte die Durchführung von Untersuchungen mit einer anatomischen Abdeckung von sechs bis acht Schichten je RR-Intervall und einer räumlichen Auflösung von 2,0×2,0×8,0mm3. Es konnte gezeigt werden, dass die angewandte GRAPPA-Rekonstruktion, trotz der effektiv fünffachen Beschleunigung, robust und im Wesentlichen mit geringer Rauschverstärkung durchführbar ist. Bildqualität und SNR waren für eine sektorweise Absolutquantifizierung der Myokardperfusion ausreichend, während die hohe räumliche Auflösung die Abgrenzung kleiner subendokardialer Perfusionsdefizite ermöglichte. Aufgrund seiner großen Flexibilität und recht einfachen Implementierbarkeit ist das Beschleunigungskonzept vielversprechend hinsichtlich einer Anwendung in der klinischen Routine. Die diesbezügliche Tauglichkeit ist allerdings in weiterführenden Patientenstudien noch zu evaluieren.
Alternativ zu diesem Konzept wurde in Kapitel 7 noch eine weitere, ebenfalls auf MS-CAIPIRINHA basierende Strategie für die First-Pass-Herzperfusionsbildgebung bei 3T mit großer anatomischer Abdeckung und hoher räumlicher Auflösung vorgestellt. Wie zuvor bestand die Grundidee des Konzepts darin, MS-CAIPIRINHA mit Beschleunigungsfaktoren anzuwenden, welche größer sind als die Anzahl der simultan angeregten Schichten und die Vergrößerung der anatomischen Abdeckung durch simultanes Anregen mehrerer Schichten zu realisieren. Um allerdings die bei der Bildrekonstruktion und Schichtseparation entstehende Rauschverstärkung zu minimieren, wurde zur Verbesserung der räumlichen Auflösung innerhalb der Schicht das nichtlineare Beschleunigungsverfahren Compressed Sensing zum Einsatz gebracht. Die erst in den letzten Jahren entwickelte Technik ermöglicht die exakte Rekonstruktion zufällig unterabgetasteter Daten, sofern bekannt ist, dass sich das rekonstruierte Bild in eine wohldefinierte sparse Darstellung überführen lässt. Neben der Erreichbarkeit hoher Beschleunigungsfaktoren bietet Compressed Sensing den Vorteil einer Bildrekonstruktion ohne signifikante Rauscherhöhung. Zur Einbindung des Verfahrens in das Multischichtbildgebungskonzept erfolgt die für die Verbesserung der Auflösung nötige Unterabtastung des k-Raums, zufällig und inkohärent. Zur Bildrekonstruktion sind zwei Teilschritte erforderlich. Im ersten Teilschritt werden die durch die zufällige Unterabtastung entstandenen inkohärenten Artefakte mit Compressed Sensing entfernt, im zweiten die gleichzeitig angeregten Schichten mit Verfahren der Parallelen MRT separiert. Es konnte gezeigt werden, dass die Kombination aus Compressed Sensing und MS-CAIPIRINHA eine Reduktion der inhomogenen Rauschverstärkung ermöglicht und zur Durchführung von qualitativen First-Pass-Herzperfusionsuntersuchungen mit einer Abdeckung von sechs bis acht Schichten je RR-Intervall sowie einer räumlichen Auflösung von 2,0 × 2,0 × 8,0mm3 geeignet ist. Des Weiteren konnte gezeigt werden, dass das angewandte Multischicht-Bildgebungskonzept einer Anwendung des entsprechenden Compressed-Sensing-Konzepts ohne simultane Multischichtanregung überlegen ist. Es stellte sich allerdings auch heraus, dass die rekonstruierten Bilder mit systematischen Fehlern behaftet sind, zu welchen auch ein signifikanter rekonstruktionsbedingter Verlust an zeitlicher Auflösung zählt. Dieser kann zu einer Verzerrung quantitativ bestimmter Perfusionswerte führen und verhindert so robuste quantitative Messungen der Myokardperfusion. Es ist außerdem davon auszugehen, dass auch abrupte Signalveränderungen, die bei Arrhythmien oder Bewegung auftreten, nur sehr ungenau rekonstruiert werden können. Die Systematischen Rekonstruktionsfehler konnten anhand zweier Verfahren, einer Monte-Carlo-Simulation sowie einer Analyse der lokalen Punktantworten präzise Untersucht werden. Die beiden Analysemethoden ermöglichten einerseits die genaue Bestimmung systematischer und statistischer Abweichungen der Signalamplitude und andererseits die Quantifizierung rekonstruktionsbedingter zeitlicher und räumlicher Auflösungsverluste. Dabei konnte ein Mangel an Sparsität als grundlegende Ursache der Rekonstruktionsfehler ermittelt werden. Die bei der Analyse eingesetzten Verfahren erleichtern das Verständnis von Compressed Sensing und können beispielsweise bei der Entwicklung nichtlinearer Beschleunigungskonzepte zur Bildqualitätsanalyse eingesetzt werden.