Refine
Has Fulltext
- yes (4)
Is part of the Bibliography
- yes (4)
Document Type
- Doctoral Thesis (4)
Language
- German (4) (remove)
Keywords
- Kernspintomografie (4) (remove)
Institute
- Graduate School of Life Sciences (4) (remove)
Sonstige beteiligte Institutionen
Für die Verwendung von zellbasierten Therapeutika ist vor allem die korrekt Identifikation
sowohl vom Ausgangsmaterial wie auch dem produziertem Material von
zentraler Wichtigkeit. In dieser Arbeit wurde eine Methodik entwickelt, welche eine
nicht-invasive Klassifizierung von Zellen und zellulärer Entwicklung aufgrund ihrer
zweidimensionalen Magnetresonanz-Korrelationsspektren ermöglichte.
Hierzu wurde ein mobiler MR-Scanner mit einer Feldstärke von 0.5T und einem Isozentrum
von 1 cm3 verwendet. Aufgrund der kompakten und leichten Bauweise war
es möglich, das System in normalen Zellkulturlaboren zu verwenden. Von den Proben
wurde ein zweidimensionales T1/T2 -Korrelationsspektrum aufgenommen, anhand
dessen die Zellen klassifiziert werden sollten. Mithilfe von Agarose-Dotagraf® -Zell-
Phantomen konnte die Stabilität und Reproduzierbarkeit des Messsystems und der
verwendeten Sequenz validiert werden.
Aufgrund der unter Umständen recht langen Messzeiten der MR-Technologie war
auch die Handhabung und Kultur der Zellproben während des Messprozesses von
großer Bedeutung. Um hierfür den Durchsatz an Proben zu erhöhen, wurde eine kostengünstige
und ebenfalls mobile Robotikanlage entwickelt. Diese basierte auf dem
kommerziell erhältlichen Roboterarm Braccio, welcher durch einen Arduino Mega
Mikrocontroller gesteuert wurde. Mit bis zu 24 Proben pro Tag konnte durch die
Automatisierung der Durchsatz an Proben um den Faktor 3 – 4 gesteigert werden.
Durch den entwickelten Prozess war es möglich, eine umfangreiche Datenbank –
bestehend aus 362 unabhängigen Messungen (biologische Replikate) – aufzubauen.
Die Datenbank enthielt Messungen von zehn unterschiedlichen Zelllinien. Zusätzlich
wurden T1/T2 -Korrelationsspektren von mesenchymalen Stromazellen (MSCs)
vor und nach deren Differenzierung zu Adipocyten aufgenommen, um ihre zelluläre
Entwicklung nicht-invasiv charakterisieren zu können.
Die aufgenommenen Daten wurden mithilfe einer geeigneten Support Vector Machine
wie auch angepassten künstlichen neuronalen Netzwerken klassifiziert. Mithilfe
dieser Methoden konnten die Zelllinien und MSCs anhand ihrer aufgenommenen
Korrelationsspektren mit einer Genauigkeit von bis zu 98% klassifiziert werden.
Diese hohe Treffsicherheit legte den Schluss nahe, dass die Kombination aus nichtinvasiver,
zweidimensionaler T1/T2 -MR-Relaxometrie und der Verwendung von geeigneten
Methoden des machine learning und der künstlichen Intelligenz eine effiziente
Methodik für die nicht-invasive Klassifizierung von Zellen sowie zellulärer
Entwicklung darstellt.
Epidemiologische Studien schätzen die Inzidenz chronischer Obstipation auf bis zu 27% der Gesamtbevölkerung. Betroffenen Patienten ist die Stuhlentleerung nicht oder nur unter großer Anstrengung und nicht selten nur unter Zuhilfenahme der Hand möglich. Häufig sind funktionelle Pathologien, welche sich nur während der Defäkation ausbilden, hierfür verantwortlich. Daher ist für die Diagnose und Evaluation dieser Pathologien ein bildgebendes Verfahren notwendig, welches die dynamische Darstellung der Defäkation ermöglicht. Der Goldstandard zur Untersuchung von Patienten mit funktionellen Beckenbodenstörungen ist die Entero-Colpo-Cysto-Defäkographie (ECCD). Diese Durchleuchtungsmethode erfordert die Applikation ionisierender Strahlung im Bereich des Beckens. Außerdem müssen für die Untersuchung Rektum und Vagina mit bariumhaltigem Kontrastmittel, der Dünndarm mit barium- und iodhaltigem Kontrastmittel und zusätzlich die Blase mit iodhaltigem Kontrastmittel gefüllt werden. Bei der MR-Defäkographie hingegen ist keine ionisierende Strahlung notwendig und nur eine rektale Füllung mit Ultraschallgel als Kontrastmittel erforderlich. Zudem ermöglichen statische Aufnahmen aufgrund des hohen Weichteilkontrasts der MR-Bildgebung eine detaillierte Darstellung des gesamten Beckenbodens. Die MR-Bildgebung ist jedoch im Vergleich zu anderen Bildgebungsmodalitäten, wie beispielsweise der radiographischen Durchleuchtung, langsam. Besonders zur Darstellung dynamischer Prozesse ist daher eine starke Beschleunigung des Akquisitionsprozesses notwendig. Bei der Standard 2D MR-Defäkographie wird für die Beschleunigung der Datenakquisition eine regelmäßige zweifache Unterabtastung des k-Raums vorgenommen. Hierdurch lassen sich aber nur drei räumlich voneinander getrennte
68
2D Schichten mit einer zeitlichen Aktualisierungsrate der drei Schichten von ca. 1s akquirieren. Dadurch ist aber besonders die Diagnose lateral lokalisierter Pathologien eingeschränkt oder gar nicht möglich. Daher wurde in dieser Arbeit eine 3D MR-Defäkographie zur dynamischen Darstellung der Defäkation innerhalb eines vollständigen 3D Volumens entwickelt, implementiert und anhand von 9 Patientenmessungen optimiert. Die letzten 4 Patienten wurden mit den optimierten Sequenzparametern untersucht. Ausgehend von der kartesischen Datenakquisition der bestehenden 2D MRDefäkographie wurden zunächst dreidimensionale kartesische Trajektorien zur Datenakquisition und dafür geeignete Algorithmen zur Datenrekonstruktion untersucht. In diesem Zusammenhang wurde ein GRAPPA Centric-Out Akquisitionsschema in Kombination mit einer GRAPPA Datenrekonstruktion vorgestellt. Es zeigte sich jedoch, dass eine Stack-of-Stars Trajektorie in Bezug auf die stabile, rauscharme, dynamische Darstellung der Defäkation, vorteilhaft gegenüber der untersuchten kartesischen GRAPPA Centric-Out Trajektorie ist. Zur weiteren Optimierung der Messsequenz wurden daher drei radiale Stackof-Stars Akquisitionsschemata untersucht: Das Standard Stack-of-Stars Schema sowie zwei mit View-Sharing und zwei unterschiedlichen Dichtegewichtungen modifizierte Stack-of-Stars Schemata (DW-Sampling 1 und DW-Sampling 2). Das View-Sharing ermöglicht durch die Umstellung der Reihenfolge der akquirierten Partitionen nahezu eine Verdopplung der rekonstruierten Zeitpunkte der dynamisch gemessenen Zeitserie. Die Dichtegewichtung bewirkt, dass in den zentralen Partitionen mehr radiale Speichen gemessen werden und damit das k-Raum Zentrum dichter abgetastet wird als in den äußeren Partitionen. Beim Dichtegewichtungsschema DW-Sampling 2 ist der Abfall der Anzahl der innerhalb einer Partition gemessenen Speichen stärker als beim DW-Sampling 1. Trotzdem führte das mit View-Sharing und DW-Sampling 2 modifizierte Stackof-Stars Akquisitionsschema in Verbindung mit der FISTA Compressed Sensing Datenrekonstruktion zum besten Kompromiss zwischen erreichbarer räumlicher
69
und zeitlicher Auflösung. Dieses optimierte Setup ermöglicht die dynamische Darstellung der Defäkation in 7 Schichten eines vollständigen 3D Volumens mit einer Volumenaktualisierungsrate von 1,3s. Im Vergleich zur standardmäßig durchgeführten 2D MR-Defäkographie ist daher eine mehr als doppelt so große Abdeckung mit einer vergleichbaren zeitlichen Aktualisierungsrate und einer etwas geringeren räumlichen Auflösung gewährleistet. Hierdurch lassen sich zusätzlich zu den gewöhnlichen zentral gelegenen Pathologien auch lateral ausgeprägte Pathologien besser abdecken und diagnostizieren.
Das Signal-zu-Rausch-Verhältnis (SNR) stellt bei modernen Bildgebungstechniken in der Magnetresonanz-Tomographie heutzutage oftmals die entscheidende Limitation dar. Eine Verbesserung durch Modifikation der Hardware ist kostspielig und führt meistens zu einer Verstärkung anderer Probleme, wie zum Beispiel erhöhte Energiedeposition ins Gewebe. Im Gegensatz dazu ist Dichtegewichtung eine Methode, die eine SNR-Erhöhung durch Modifikation der Aufnahmetechnik ermöglicht. In der MR-Bildgebung erfolgt oftmals eine retrospektive Filterung des aufgenommenen Signalverlaufs, beispielsweise zur Artefaktreduktion. Damit einhergehend findet eine Veränderung der Modulationstransferfunktion (MTF) bzw. ihrer Fouriertransformierten, der räumlichen Antwortfunktion (SRF), statt. Optimales SNR wird nach dem Matched Filter-Theorem erzielt, wenn die nachträgliche Filterung dem aufgenommenen Signalverlauf proportional ist. Dies steht dem Ziel der Artefaktreduktion entgegen. Bei Dichtegewichtung steht durch nicht-kartesische Abtastung des k-Raums mit der k-Raum-Dichte ein zusätzlicher Freiheitsgrad zur Verfügung. Dieser ermöglicht es, im Falle eines konstanten Signalverlaufs eine gewünschte MTF ohne Filterung zu erreichen. Bei veränderlichem Signalverlauf kann ein SNR Matched Filter angewendet werden, dessen negative Einflüsse auf die MTF durch Dichtegewichtung kompensiert werden. Somit ermöglicht Dichtegewichtung eine vorgegebene MTF und gleichzeitig ein optimales SNR. In der vorliegenden Arbeit wurde Dichtegewichtung erstmals bei den schnellen Multi-Echo-Sequenzen Turbo-Spin-Echo und Echoplanar-Bildgebung (EPI) angewendet. Im Gegensatz zu bisherigen Implementierungen muss hier der Signalabfall durch T2- bzw. T2*-Relaxation berücksichtigt werden. Dies führt dazu, dass eine prospektiv berechnete dichtegewichtete Verteilung nur bei einer Relaxationszeit optimal ist. Bei Geweben mit abweichenden Relaxationszeiten können sich wie auch bei den kartesischen Varianten dieser Sequenzen Änderungen an SRF und SNR ergeben. Bei dichtegewichteter Turbo-Spin-Echo-Bildgebung des Gehirns konnte mit den gewählten Sequenzparametern ein SNR-Vorteil von 43 % gegenüber der kartesischen Variante erzielt werden. Die Akquisition wurde dabei auf die T2-Relaxationszeit von weißer Substanz optimiert. Da die meisten Gewebe im Gehirn eine ähnliche Relaxationszeit aufweisen, blieb der visuelle Gesamteindruck identisch zur kartesischen Bildgebung. Der SNR-Gewinn konnte in der dichtegewichteten Implementierung zur Messzeithalbierung genutzt werden. Dichtegewichtete EPI weist eine hohe Anfälligkeit für geometrische Verzerrungen, welche durch Inhomogenitäten des Hauptmagnetfeldes verursacht werden, auf. Die Verzerrungen konnten erfolgreich mit einer Conjugate Phase-Methode korrigiert werden. Dazu muss die räumliche Verteilung der Feldinhomogenitäten bekannt sein. Dazu ist zusätzlich zur eigentlichen EPI-Aufnahme die zeitaufwendige Aufnahme einer sogenannten Fieldmap erforderlich. Im Rahmen dieser Arbeit konnte eine Methode entwickelt werden, welche die zur Erlangung einer Fieldmap notwendige Aufnahmedauer auf wenige Sekunden reduziert. Bei dieser Art der Fieldmap-Aufnahme müssen jedoch durch Atmung hervorgerufene Effekte auf die Bildphase berücksichtigt werden. Die Fieldmap-Genauigkeit kann durch Aufnahme unter Atempause, Mittelung oder retrospektiver Phasenkorrektur erhöht werden. Für die gewählten EPI-Sequenzparameter wurde mit Dichtegewichtung gegenüber der kartesischen Variante ein SNR-Gewinn von 14 % erzielt. Anhand einer funktionellen MRT (fMRI)-Fingertapping-Studie konnte demonstriert werden, dass die SNR-Steigerung auch zu einer signifikant erhöhten Aktivierungsdetektion in Teilen der Hirnareale führt, die bei der Fingerbewegung involviert sind. Die Verwendung von zusätzlicher EPI-Phasenkorrektur und iterativer Optimierung der dichtegewichteten k-Raum-Abtastung führt zu weiteren Verbesserungen der dichtegewichteten Bildgebung mit Multi-Echo-Sequenzen.
Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer Variabilität als Referenzstandard für die Bestimmung der kardialen Funktion betrachtet. Auch in der präklinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden Fällen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der präklinischen Kleintierbildgebung müssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemäßig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische Ansätze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. Während zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt repräsentierte, spielte sich in den letzten fünf Jahren vermehrt die von Donoho und Candès eingeführte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollständig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der Sparsität des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend für den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante Veränderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter Näherung als linear und stationär betrachtet werden, so repräsentiert die CS-Rekonstruktion eine nichtlineare und nichtstationäre Transformation. Objektinformation wird nicht mehr ortsunabhängig und proportional zur Intensität in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenüber der unterabgetasteten Messung als auch die Sparsität des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive Einschätzung der Bildqualität CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine Verkürzung der Messzeit ohne Verlust an Bildqualität, wobei letztere bisher größtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationär) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationären Verhaltens ohne Weiteres keine äquivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) für den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berücksichtigt die Ortsabhängigkeit der CS-Rekonstruktion und muss daher für jeden Ort (Pixel) eines Bildes bestimmt werden. Darüber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzuführen. Es wurde sowohl der Einfluss typischer Unterabtastschemata für CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der räumlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollständig abgetasteten Referenz zur Qualitätsbeurteilung zurückgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die Berücksichtigung der nominell höchsten Frequenzen k_max unerlässlich ist. Frühere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgeführten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfällig für zeitliches Blurring. Dieses resultiert aus der Unterdrückung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist für eine umfassende Analyse der Bildqualität auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-Verhältnisses (SNR) notwendig. Während Aliasing mit Hilfe der Einträge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten Qualitätsparameter ist eine robuste Bewertung der Bildqualität auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der Bildqualität behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der präklinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgeführt. Die Algorithmen für eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) Datensätze entwickelt und optimiert. Zunächst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder für jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollständig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollständig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter für jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-Mäusespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. Für die PI-Beschleunigung wurde der vollständig abgetastete k-Raum zunächst gleichmäßig unterabgetastet. Auf dem resultierenden Untergitter wurde zusätzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgeführt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. Zunächst wurde mittels CS das äquidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusätzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das äquidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollständig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollständig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung führte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. Während mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, führte ein höherer PI-Beschleunigungsfaktor zu einer leichten Verstärkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulässt. Die LPSF-Analyse zeigte einen Verlust der räumlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stärker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der präklinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik für die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden üblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. Für die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen präklinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische Funktionalität der Rekonstruktionstechnik bei einer Beschleunigung bezüglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollständig abgetasteten Datensatz waren vernachlässigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollständiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusätzliche Aliasing-Artefakte in den äußeren Partitionen. Die für radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch über das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung für die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkürzten Messzeit.