Refine
Has Fulltext
- yes (8)
Is part of the Bibliography
- yes (8)
Document Type
- Doctoral Thesis (8)
Keywords
- Compressed Sensing (8) (remove)
Institute
Sonstige beteiligte Institutionen
The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts.
Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques.
We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data.
Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel.
Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy.
In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures.
In der heutigen Strahlentherapie kann durch eine am Linearbeschleuniger integrierte
Röntgenröhre eine 3D-Bildgebung vor der Bestrahlung durchgeführt werden. Die
sogenannte Kegel-Strahl-CT (Cone-Beam-CT, CBCT) erlaubt eine präzise Verifikation
der Patientenlagerung sowie ein Ausgleich von Lagerungsungenauigkeiten. Dem
Nutzen der verbesserten Patientenlagerung steht jedoch bei täglicher Anwendung eine
erhöhte, nicht zu vernachlässigbare Strahlenexposition des Patienten gegenüber. Eine
Verringerung des Dosisbeitrages bei der CBCT-Bildgebung lässt sich durch
Reduzierung des Stroms zur Erzeugung der Röntgenstrahlung sowie durch
Verringerung der Anzahl an Projektionen erreichen. Die so aufgenommen Projektionen
lassen sich dann aber nur durch aufwendige Rekonstruktionsverfahren zu qualitativ
hochwertigen Bilddatensätzen rekonstruieren. Ein Verfahren, dass für die
Rekonstruktion vorab vorhandene Vorwissensbilder verwendet, ist der Prior-Image-
Constrained-Compressed-Sensing-Rekonstruktionsalgorithmus (PICCS). Die Rekonstruktionsergebnisse
des PICCS-Verfahrens übertreffen die Ergebnisse des auf den
konventionellen Feldkamp-Davis-Kress-Algorithmus (FDK) basierenden Verfahrens,
wenn nur eine geringe Anzahl an Projektionen zur Verfügung steht. Allerdings können
bei dem PICCS-Verfahren derzeit keine großen Variationen in den Vorwissensbildern
berücksichtigt werden und führen zu einer geringeren Bildqualität. Diese Variationen
treten insbesondere durch anatomische Veränderungen wie Tumorverkleinerung oder
Gewichtsveränderungen auf. Das Ziel der vorliegenden Arbeit bestand folglich darin,
einen neuen vorwissensbasierten Rekonstruktionsalgorithmus zu entwickeln, der auf
Basis des PICCS-Verfahrens zusätzlich die Verwendung von lokalen
Verlässlichkeitsinformationen über das Vorwissensbild ermöglicht, um damit die
Variationen in den Vorwissensbildern bei der Rekonstruktion entsprechend
berücksichtigen zu können.
Die grundlegende Idee des neu entwickelten Rekonstruktionsverfahrens ist die
Annahme, dass die Vorwissensbilder aus Bereichen mit kleinen und großen Variationen
bestehen. Darauf aufbauend wird eine Gewichtungsmatrix erzeugt, die die Stärke der
Variationen des Vorwissens im Rekonstruktionsalgorithmus berücksichtigt. In
Machbarkeitsstudien wurde das neue Verfahren hinsichtlich der Verbesserung der Bildqualität unter Berücksichtigung gängiger Dosisreduzierungsstrategien untersucht.
Dazu zählten die Reduktion der Anzahl der Projektionen, die Akquisition von
Projektionen mit kleinerer Fluenz sowie die Verkleinerung des Akquisitionsbereiches.
Die Studien erfolgten an einem Computerphantom sowie insbesondere an
experimentellen Daten, die mit dem klinischen CBCT aufgenommen worden sind. Zum
Vergleich erfolgte die Rekonstruktion mit dem Standardverfahren basierend auf der
gefilterten Rückprojektion, dem Compressed Sensing- sowie dem konventionellen
PICCS-Verfahren.
Das neue Verfahren konnte in den untersuchten Fällen Bilddatensätze mit verbesserter
bis ausgezeichneter Qualität rekonstruieren, sogar dann, wenn nur eine sehr geringe
Anzahl an Projektionen oder nur Projektionen mit starkem Rauschen zur Verfügung
standen. Demgegenüber wiesen die Rekonstruktionsergebnisse der anderen
Algorithmen starke Artefakte auf. Damit eröffnet das neu entwickelte Verfahren die
Möglichkeit durch die Integration von Zuverlässigkeitsinformationen über die
vorhandenen Vorwissensbildern in den Rekonstruktionsalgorithmus, den Dosisbeitrag
bei der täglichen CBCT-Bildgebung zu minimieren und eine ausgezeichnete
Bildqualität erzielen zu können.
Proximal methods are iterative optimization techniques for functionals, J = J1 + J2, consisting of a differentiable part J2 and a possibly nondifferentiable part J1. In this thesis proximal methods for finite- and infinite-dimensional optimization problems are discussed. In finite dimensions, they solve l1- and TV-minimization problems that are effectively applied to image reconstruction in magnetic resonance imaging (MRI). Convergence of these methods in this setting is proved. The proposed proximal scheme is compared to a split proximal scheme and it achieves a better signal-to-noise ratio. In addition, an application that uses parallel imaging is presented.
In infinite dimensions, these methods are discussed to solve nonsmooth linear and bilinear elliptic and parabolic optimal control problems. In particular, fast convergence of these methods is proved. Furthermore, for benchmarking purposes, truncated proximal schemes are compared to an inexact semismooth Newton method. Results of numerical experiments are presented to demonstrate the computational effectiveness of our proximal schemes that need less computation time than the semismooth Newton method in most cases. Results of numerical experiments are presented that successfully validate the theoretical estimates.
Magnetic Resonance Imaging (MRI) is a non-invasive medical imaging technique, that is rou- tinely used in clinical practice for detection and diagnosis of a wide range of different diseases. In MRI, no ionizing radiation is used, making even repeated application unproblematic. This is an important advantage over other common imaging methods such as X-rays and Computer To- mography. One major drawback of MRI, however, are long acquisition times and associated high costs of experiments. Since the introduction of MRI, several important technical developments have been made to successfully reduce acquisition times. In this work, novel approaches were developed to increase the efficiency of MRI acquisitions.
In Chapter 4, an improved radial turbo spin-echo (TSE) combined acquisition and reconstruction strategy was introduced. Cartesian turbo spin-echo sequences [3] are widely used especially for the detection and diagnosis of neurological pathologies, as they provide high SNR images with both clinically important proton density and T2 contrasts. TSE acquisitions combined with radial sampling are very efficient, since it is possible to obtain a number of ETL images with different contrasts from a single radial TSE measurement [56–58]. Conventionally, images with a particular contrast are obtained from both radial and Cartesian TSE acquisitions by combining data from different echo times into a single image. In the radial case, this can be achieved by employing k-space weighted image contrast (KWIC) reconstruction. In KWIC, the center region of k-space is filled exclusively with data belonging to the desired contrast while outer regions also are assembled with data acquired at other echo times. However, this data sharing leads to mixed contrast contributions to both Cartesian and radial TSE images. This is true especially for proton density weighted images and therefore may reduce their diagnostic value.
In the proposed method, an adapted golden angle reordering scheme is introduced for radial TSE acquisitions, that allows a free choice of the echo train length and provides high flexibility in image reconstruction. Unwanted contrast contaminations are greatly reduced by employing a narrow-band KWIC filter, that restricts data sharing to a small temporal window around the de- sired echo time. This corresponds to using fewer data than required for fully sampled images and consequently leads to images exhibiting aliasing artifacts. In a second step, aliasing-free images are obtained using parallel imaging. In the neurological examples presented, the CG-SENSE algorithm [42] was chosen due to its stable convergence properties and its ability to reconstruct arbitrarily sampled data. In simulations as well as in different in vivo neurological applications, no unwanted contrast contributions could be observed in radial TSE images reconstructed with the proposed method. Since this novel approach is easy to implement on today’s scanners and requires low computational power, it might be valuable for the clinical breakthrough of radial TSE acquisitions.
In Chapter 5, an auto-calibrating method was introduced to correct for stimulated echo contribu- tions to T2 estimates from a mono-exponential fit of multi spin-echo (MSE) data. Quantification of T2 is a useful tool in clinical routine for the detection and diagnosis of diseases as well as for tis- sue characterization. Due to technical imperfections, refocusing flip angles in a MSE acquisition deviate from the ideal value of 180○. This gives rise to significant stimulated echo contributions to the overall signal evolution. Therefore, T2 estimates obtained from MSE acquisitions typically are notably higher than the reference. To obtain accurate T2 estimates from MSE acquisitions, MSE signal amplitudes can be predicted using the extended phase graph (EPG, [23, 24]) algo- rithm. Subsequently, a correction factor can be obtained from the simulated EPG T2 value and applied to the MSE T2 estimates. However, EPG calculations require knowledge about refocus- ing pulse amplitudes, T2 and T1 values and the temporal spacing of subsequent echoes. While the echo spacing is known and, as shown in simulations, an approximate T1 value can be assumed for high ratios of T1/T2 without compromising accuracy of the results, the remaining two parameters are estimated from the data themselves. An estimate for the refocusing flip angle can be obtained from the signal intensity ratio of the second to the first echo using EPG. A conventional mono- exponential fit of the MSE data yields a first estimate for T2. The T2 correction is then obtained iteratively by updating the T2 value used for EPG calculations in each step. For all examples pre- sented, two iterations proved to be sufficient for convergence. In the proposed method, a mean flip angle is extracted across the slice. As shown in simulations, this assumption leads to greatly reduced deviations even for more inhomogeneous slice profiles. The accuracy of corrected T2 values was shown in experiments using a phantom consisting of bottles filled with liquids with a wide range of different T2 values. While T2 MSE estimates were shown to deviate significantly from the spin-echo reference values, this is not the case for corrected T2 values. Furthermore, applicability was demonstrated for in vivo neurological experiments.
In Chapter 6, a new auto-calibrating parallel imaging method called iterative GROG was pre- sented for the reconstruction of non-Cartesian data. A wide range of different non-Cartesian schemes have been proposed for data acquisition in MRI, that present various advantages over conventional Cartesian sampling such as faster acquisitions, improved dynamic imaging and in- trinsic motion correction. However, one drawback of non-Cartesian data is the more complicated reconstruction, which is ever more problematic for non-Cartesian parallel imaging techniques. Iterative GROG uses Calibrationless Parallel Imaging by Structured Low-Rank Matrix Completion (CPI) for data reconstruction. Since CPI requires points on a Cartesian grid, it cannot be used to directly reconstruct non-Cartesian data. Instead, Grappa Operator Gridding (GROG) is employed in a first step to move the non-Cartesian points to the nearest Cartesian grid locations. However, GROG requires a fully sampled center region of k-space for calibration. Combining both methods in an iterative scheme, accurate GROG weights can be obtained even from highly undersampled non-Cartesian data. Subsequently, CPI can be used to reconstruct either full k- space or a calibration area of arbitrary size, which can then be employed for data reconstruction with conventional parallel imaging methods.
In Chapter 7, a new 2D sampling scheme was introduced consisting of multiple oscillating effi- cient trajectories (MOET), that is optimized for Compressed Sensing (CS) reconstructions. For successful CS reconstruction of a particular data set, some requirements have to be met. First, ev- ery data sample has to carry information about the whole object, which is automatically fulfilled for the Fourier sampling employed in MRI. Additionally, the image to be reconstructed has to be sparse in an arbitrary domain, which is true for a number of different applications. Last, data sam- pling has to be performed in an incoherent fashion. For 2D imaging, this important requirement of CS is difficult to achieve with conventional Cartesian and non-Cartesian sampling schemes. Ra- dial sampling is often used for CS reconstructions of dynamic data despite the streaking present in undersampled images. To obtain incoherent aliasing artifacts in undersampled images while at the same time preserving the advantages of radial sampling for dynamic imaging, MOET com- bines radial spokes with oscillating gradients of varying amplitude and alternating orientation orthogonal to the readout direction. The advantage of MOET over radial sampling in CS re- constructions was demonstrated in simulations and in in vivo cardiac imaging. MOET provides superior results especially when used in CS reconstructions with a sparsity constraint directly in image space. Here, accurate results could be obtained even from few MOET projections, while the coherent streaking artifacts present in the case of radial sampling prevent image recovery even for smaller acceleration factors. For CS reconstructions of dynamic data with sparsity constraint in xf-space, the advantage of MOET is smaller since the temporal reordering is responsible for an important part of incoherency. However, as was shown in simulations of a moving phantom and in the reconstruction of ungated cardiac data, the additional spatial incoherency provided by MOET still leads to improved results with higher accuracy and may allow reconstructions with higher acceleration factors.
Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen.
Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen.
Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt.
Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist.
Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt.
Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war.
Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist.
Die MRT hat sich in den letzten Jahren zu einem wichtigen Instrument in der Diagnostik von Herzerkrankungen entwickelt. Da sie ohne ionisierende Strahlung auskommt, stellt sie vor allem auch eine nichtinvasive Alternative zu den nuklearmedizinischen Verfahren und der Computertomographie dar. Im speziellen ermöglicht die kardiale MRT die ortsaufgelöste Darstellung des Herzens mit einer Vielzahl an Kontrasten. Neben der Morphologie können damit auch zahlreiche Funktionsparameter des Herzens, wie die Ejektionsfraktion des linken Ventrikels, oder die Viabilität und Perfusion des Herzmuskels untersucht werden. Atmung und Herzbewegung stellen allerdings große Anforderungen an die MR-Herzbildgebung. Die beiden Störfaktoren limitieren den Zeitraum, der zur Bildakquisition zur Verfügung steht und erzeugen so Konflikte zwischen räumlicher Auflösung, anatomischer Abdeckung, zeitlicher Auflösung und dem Signal-zu-Rausch-Verhältnis (SNR). Ferner ergibt sich für die meisten eingesetzten Verfahren eine erhöhte Komplexität. Die Bildgebungssequenzen müssen mittels EKG an den Herzrhythmus des Patienten angepasst und die Bildakquisitionen im Atemanhaltezustand durchgeführt werden. In manchen Fällen ist sogar eine Aufspaltung der Messung in mehrere Einzelakquisitionen nötig, was wiederum die Dauer der Untersuchungen verlängert und den Patientenkomfort reduziert.
Mit technischen Entwicklungen im Bereich der Gradienten und der Empfangsspulen sowie durch den Einsatz dedizierter Bildgebungstechniken konnten in den letzten Jahren signifikante Verbesserungen erzielt und der Stellenwert der MR-Bildgebung in der Herzdiagnostik erhöht werden. Von großer Bedeutung sind dabei auch Beschleunigungsverfahren wie die Parallele Bildgebung, die eine deutliche Verkürzung der Datenakquisition ermöglichen und so den Einfluss von Atmung und Herzbewegung wirksam reduzieren. Die Beschleunigung wird dabei grundsätzlich durch eine unvollständige Datenakquisition bzw. Unterabtastung des k-Raums erzielt, welche im Zuge der Bildrekonstruktion durch Ausnutzen zusätzlich vorhandener Informationen kompensiert wird. Bei der Parallelen Bildgebung ersetzen beispielsweise mehrere um das Objekt herum angeordnete Empfangsspulen die zum Teil unvollständig durchgeführte Gradientenbasierte Ortskodierung. Die Beschleunigungsverfahren sind allerdings wegen der verringerten Datenaufnahme auch immer mit einer Reduktion des SNR verbunden.
Eine alternative Strategie zur Beschleunigung der 2D-Bildgebung mit mehreren Schichten stellt die simultane Multischichtbildgebung mit Multi-Slice Controlled Aliasing In Parallel Imaging Results In Higher Acceleration(MS-CAIPIRINHA) dar. Anders als bei der konventionellen Parallelen Bildgebung wird die Beschleunigung hier nicht durch eine reduzierte Datenaufnahme erzielt. Vielmehr werden Multiband-RF-Pulse eingesetzt, um die Spins in mehreren Schichten gleichzeitig anzuregen. Durch Anwenden schichtspezifischer RF-Phasenzyklen wird die Phase der Spins individuell in jeder Schicht moduliert, wodurch sich eine gegenseitige Verschiebung der Schichten im FOV ergibt. Die Verschiebung erleichtert die Separation der gleichzeitig angeregten Schichten mit Verfahren der Parallelen Bildgebung. Sie erlaubt außerdem eine Minimierung der bei der Rekonstruktion entstehenden Rauschverstärkung. Die Multischichtbildgebungstechnik zeichnet sich gegenüber der konventionellen Parallelen Bildgebung durch ein wesentlich höheres SNR und durch eine Bildrekonstruktion mit geringeren Rekonstruktionsfehlern aus.
In dieser Dissertation wurden verschiedene Strategien zur Anwendung von MS-CAIPIRINHA in der MRT des Herzens präsentiert sowie ihre Vorund Nachteile gegenübergestellt. Im Allgemeinen ermöglichen die vorgestellten Konzepte eine hinsichtlich des SNR sehr effiziente Erweiterung der
anatomischen Abdeckung. Unter anderem wurde eine Möglichkeit vorgestellt, mit der es uneingeschränkt gelingt, MS-CAIPIRINHA in der Bildgebung mit bSSFP-Sequenzen anzuwenden. Die Steady-State-Sequenz wird aufgrund ihres hohen intrinsischen SNR und vorteilhaften Kontrastverhaltens sehr häufig in der MRT des Herzens bei 1,5T eingesetzt. Wie auch die simultane Multischichtbildgebung erfordert sie zum Halten der Magnetisierung im stationären Zustand die Applikation eines dedizierten RF-Phasenzyklus während der Datenakquisition. Der Phasenzyklus der Sequenz ist allerdings nicht ohne Weiteres mit den Phasenzyklen der Multischichttechnik kompatibel, so dass eine Verknüpfung der beiden Verfahren bisher nur durch Aufspalten der Bildakquisition in mehrere Teilmessungen gelang. Mit dem in Kapitel 5 vorgestellten Konzept ist diese zumeist impraktikable Segmentierung nicht mehr erforderlich. Generalisierte RF-Phasenzyklen, die sowohl die Anforderungen der Sequenz, als auch die der Multischichtbildgebung erfüllen, ermöglichen eine uneingeschränkte Anwendung der Multischichttechnik in der Bildgebung mit bSSFP oder vergleichbaren Steady-State-Sequenzen. Die Multischichttechnik ist damit auch bei Untersuchungen in Echtzeit oder mit Magnetisierungspräparation – Verfahren, die unter anderem in der MR-Herzdiagnostik Verwendung finden – einsetzbar. Anhand von Echtzeit-, Cine- und First-Pass-Herzperfusionsuntersuchungen am menschlichen Herzen konnte die Anwendbarkeit des Konzepts erfolgreich demonstriert werden. Durch die Akquisition zweier Schichten in der Zeit, die normalerweise zur Bildgebung einer einzelnen Schicht benötigt wird, gelang eine Verdoppelung der anatomischen Abdeckung bei unverändert hoher Bildqualität. Bei den Herzperfusionsuntersuchungen konnten je RR-Intervall sechs Schichten akquiriert werden. Bei Echtzeit- und Cine-Messungen erlaubt das Konzept eine signifikante Reduktion der Anzahl der Atemanhaltezustände und dementsprechend eine wirksame Verkürzung der Patientenuntersuchung und eine Verbesserung des Patientenkomforts.
In Kapitel 6 wurde eine effiziente Strategie zur Anwendung der simultanen Multischichtbildgebung in der First-Pass-Herzperfusionsbildgebung bei 3T vorgestellt. Es wurde gezeigt, dass durch den Einsatz von MS-CAIPIRINHA mit Beschleunigungsfaktoren, die größer sind als die Anzahl der simultan angeregten Schichten, neben der anatomischen Abdeckung auch die räumliche Auflösung innerhalb der Bildgebungsschicht erhöht werden kann. Beide Verbesserungen sind für die MR-gestützte Diagnostik der Koronaren Herzerkrankung von Bedeutung. Während mit einer hohen räumlichen Auflösung subendokardiale und transmurale Infarktareale unterschieden werden können, erleichtert eine hohe anatomische Abdeckung die genaue Eingrenzung hypoperfundierter Bereiche. Das grundsätzliche Prinzip der vorgestellten Strategie besteht in der Kombination zweier unterschiedlicher Beschleunigungsansätze: Zur Verbesserung der anatomischen Abdeckung kommt die simultane Multischichtbildgebung zum Einsatz. Zusätzlich zur gleichzeitigen Anregung mehrerer Schichten wird der k-Raum regelmäßig unterabgetastet. Die dabei erzielte Beschleunigung wird zur Verbesserung der räumlichen Auflösung eingesetzt. Die Bildrekonstruktion erfolgt mit Verfahren der Parallelen Bildgebung. Der Vorteil des Konzepts liegt insbesondere im vollständigen Erhalt der Datenakquisitionszeit gegenüber einer unbeschleunigten Messung mit Standardabdeckung und -auflösung. Anders als bei konventionellen Beschleunigungsverfahren wirken sich lediglich die Verkleinerung der Voxelgröße sowie die Rauschverstärkung der Bildrekonstruktion SNR-reduzierend aus. Die Rauschverstärkung wird dabei, durch die gegenseitige Verschiebung der simultan angeregten Schichten im FOV, so gering wie möglich gehalten. Die Anwendbarkeit des Konzepts konnte anhand von Simulationen sowie Untersuchungen an Probanden und Herzinfarktpatienten erfolgreich demonstriert werden. Simultanes Anregen zweier Schichten und 2,5-faches Unterabtasten des k-Raums ermöglichte die Durchführung von Untersuchungen mit einer anatomischen Abdeckung von sechs bis acht Schichten je RR-Intervall und einer räumlichen Auflösung von 2,0×2,0×8,0mm3. Es konnte gezeigt werden, dass die angewandte GRAPPA-Rekonstruktion, trotz der effektiv fünffachen Beschleunigung, robust und im Wesentlichen mit geringer Rauschverstärkung durchführbar ist. Bildqualität und SNR waren für eine sektorweise Absolutquantifizierung der Myokardperfusion ausreichend, während die hohe räumliche Auflösung die Abgrenzung kleiner subendokardialer Perfusionsdefizite ermöglichte. Aufgrund seiner großen Flexibilität und recht einfachen Implementierbarkeit ist das Beschleunigungskonzept vielversprechend hinsichtlich einer Anwendung in der klinischen Routine. Die diesbezügliche Tauglichkeit ist allerdings in weiterführenden Patientenstudien noch zu evaluieren.
Alternativ zu diesem Konzept wurde in Kapitel 7 noch eine weitere, ebenfalls auf MS-CAIPIRINHA basierende Strategie für die First-Pass-Herzperfusionsbildgebung bei 3T mit großer anatomischer Abdeckung und hoher räumlicher Auflösung vorgestellt. Wie zuvor bestand die Grundidee des Konzepts darin, MS-CAIPIRINHA mit Beschleunigungsfaktoren anzuwenden, welche größer sind als die Anzahl der simultan angeregten Schichten und die Vergrößerung der anatomischen Abdeckung durch simultanes Anregen mehrerer Schichten zu realisieren. Um allerdings die bei der Bildrekonstruktion und Schichtseparation entstehende Rauschverstärkung zu minimieren, wurde zur Verbesserung der räumlichen Auflösung innerhalb der Schicht das nichtlineare Beschleunigungsverfahren Compressed Sensing zum Einsatz gebracht. Die erst in den letzten Jahren entwickelte Technik ermöglicht die exakte Rekonstruktion zufällig unterabgetasteter Daten, sofern bekannt ist, dass sich das rekonstruierte Bild in eine wohldefinierte sparse Darstellung überführen lässt. Neben der Erreichbarkeit hoher Beschleunigungsfaktoren bietet Compressed Sensing den Vorteil einer Bildrekonstruktion ohne signifikante Rauscherhöhung. Zur Einbindung des Verfahrens in das Multischichtbildgebungskonzept erfolgt die für die Verbesserung der Auflösung nötige Unterabtastung des k-Raums, zufällig und inkohärent. Zur Bildrekonstruktion sind zwei Teilschritte erforderlich. Im ersten Teilschritt werden die durch die zufällige Unterabtastung entstandenen inkohärenten Artefakte mit Compressed Sensing entfernt, im zweiten die gleichzeitig angeregten Schichten mit Verfahren der Parallelen MRT separiert. Es konnte gezeigt werden, dass die Kombination aus Compressed Sensing und MS-CAIPIRINHA eine Reduktion der inhomogenen Rauschverstärkung ermöglicht und zur Durchführung von qualitativen First-Pass-Herzperfusionsuntersuchungen mit einer Abdeckung von sechs bis acht Schichten je RR-Intervall sowie einer räumlichen Auflösung von 2,0 × 2,0 × 8,0mm3 geeignet ist. Des Weiteren konnte gezeigt werden, dass das angewandte Multischicht-Bildgebungskonzept einer Anwendung des entsprechenden Compressed-Sensing-Konzepts ohne simultane Multischichtanregung überlegen ist. Es stellte sich allerdings auch heraus, dass die rekonstruierten Bilder mit systematischen Fehlern behaftet sind, zu welchen auch ein signifikanter rekonstruktionsbedingter Verlust an zeitlicher Auflösung zählt. Dieser kann zu einer Verzerrung quantitativ bestimmter Perfusionswerte führen und verhindert so robuste quantitative Messungen der Myokardperfusion. Es ist außerdem davon auszugehen, dass auch abrupte Signalveränderungen, die bei Arrhythmien oder Bewegung auftreten, nur sehr ungenau rekonstruiert werden können. Die Systematischen Rekonstruktionsfehler konnten anhand zweier Verfahren, einer Monte-Carlo-Simulation sowie einer Analyse der lokalen Punktantworten präzise Untersucht werden. Die beiden Analysemethoden ermöglichten einerseits die genaue Bestimmung systematischer und statistischer Abweichungen der Signalamplitude und andererseits die Quantifizierung rekonstruktionsbedingter zeitlicher und räumlicher Auflösungsverluste. Dabei konnte ein Mangel an Sparsität als grundlegende Ursache der Rekonstruktionsfehler ermittelt werden. Die bei der Analyse eingesetzten Verfahren erleichtern das Verständnis von Compressed Sensing und können beispielsweise bei der Entwicklung nichtlinearer Beschleunigungskonzepte zur Bildqualitätsanalyse eingesetzt werden.
Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer Variabilität als Referenzstandard für die Bestimmung der kardialen Funktion betrachtet. Auch in der präklinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden Fällen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der präklinischen Kleintierbildgebung müssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemäßig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische Ansätze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. Während zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt repräsentierte, spielte sich in den letzten fünf Jahren vermehrt die von Donoho und Candès eingeführte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollständig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der Sparsität des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend für den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante Veränderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter Näherung als linear und stationär betrachtet werden, so repräsentiert die CS-Rekonstruktion eine nichtlineare und nichtstationäre Transformation. Objektinformation wird nicht mehr ortsunabhängig und proportional zur Intensität in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenüber der unterabgetasteten Messung als auch die Sparsität des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive Einschätzung der Bildqualität CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine Verkürzung der Messzeit ohne Verlust an Bildqualität, wobei letztere bisher größtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationär) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationären Verhaltens ohne Weiteres keine äquivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) für den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berücksichtigt die Ortsabhängigkeit der CS-Rekonstruktion und muss daher für jeden Ort (Pixel) eines Bildes bestimmt werden. Darüber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzuführen. Es wurde sowohl der Einfluss typischer Unterabtastschemata für CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der räumlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollständig abgetasteten Referenz zur Qualitätsbeurteilung zurückgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die Berücksichtigung der nominell höchsten Frequenzen k_max unerlässlich ist. Frühere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgeführten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfällig für zeitliches Blurring. Dieses resultiert aus der Unterdrückung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist für eine umfassende Analyse der Bildqualität auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-Verhältnisses (SNR) notwendig. Während Aliasing mit Hilfe der Einträge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten Qualitätsparameter ist eine robuste Bewertung der Bildqualität auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der Bildqualität behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der präklinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgeführt. Die Algorithmen für eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) Datensätze entwickelt und optimiert. Zunächst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder für jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollständig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollständig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter für jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-Mäusespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. Für die PI-Beschleunigung wurde der vollständig abgetastete k-Raum zunächst gleichmäßig unterabgetastet. Auf dem resultierenden Untergitter wurde zusätzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgeführt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. Zunächst wurde mittels CS das äquidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusätzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das äquidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollständig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollständig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung führte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. Während mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, führte ein höherer PI-Beschleunigungsfaktor zu einer leichten Verstärkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulässt. Die LPSF-Analyse zeigte einen Verlust der räumlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stärker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der präklinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik für die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden üblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. Für die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen präklinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische Funktionalität der Rekonstruktionstechnik bei einer Beschleunigung bezüglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollständig abgetasteten Datensatz waren vernachlässigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollständiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusätzliche Aliasing-Artefakte in den äußeren Partitionen. Die für radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch über das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung für die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkürzten Messzeit.
This thesis investigated the potential of Compressed Sensing (CS) applied to Magnetic Resonance Imaging (MRI). CS is a novel image reconstruction method that emerged from the field of information theory. The framework of CS was first published in technical reports in 2004 by Candès and Donoho. Two years later, the theory of CS was published in a conference abstract and two papers. Candès and Donoho proved that it is possible, with overwhelming probability, to reconstruct a noise-free sparse signal from incomplete frequency samples (e.g., Fourier coefficients). Hereby, it is assumed a priori that the desired signal for reconstruction is sparse. A signal is considered “sparse“ when the number of non-zero elements is significantly smaller than the number of all elements. Sparsity is the most important foundation of CS. When an ideal noise-free signal with few non-zero elements is given, it should be understandably possible to obtain the relevant information from fewer Fourier coefficients than dictated by the Nyquist-Shannon criterion. The theory of CS is based on noise-free sparse signals. As soon as noise is introduced, no exact sparsity can be specified since all elements have signal intensities that are non-zero. However, with the addition of little or moderate noise, an approximate sparsity that can be exploited using the CS framework will still be given. The ability to reconstruct noisy undersampled sparse MRI data using CS has been extensively demonstrated. Although most MR datasets are not sparse in image space, they can be efficiently sparsified by a sparsifying transform. In this thesis, the data are either sparse in the image domain, after Discrete Gradient transformation, or after subtraction of a temporally averaged dataset from the data to be reconstructed (dynamic imaging). The aim of this thesis was to identify possible applications of CS to MRI. Two different algorithms were considered for reconstructing the undersampled sparse data with the CS concept. The Nonlinear Conjugate Gradient based technique with a relaxed data consistency constraint as suggested by Lustig et al. is termed Relaxed DC method. An alternative represents the Gradient or Steepest Descent algorithm with strict data consistency and is, therefore, termed the Strict DC method. Chapter 3 presents simulations illustrating which of these two reconstruction algorithms is best suited to recover undersampled sparse MR datasets. The results lead to the decision for the Strict DC method as reconstruction technique in this thesis. After these simulations, different applications and extensions of CS are demonstrated. Chapter 4 shows how CS benefits spectroscopic 19F imaging at 7 T, allowing a significant reduction of measurement times during in vivo experiments. Furthermore, it allows highly resolved spectroscopic 3D imaging in acceptable measurement times for in vivo applications. Chapter 5 introduces an extension of the Strict DC method called CS-CC (CS on Combined Coils), which allows efficient processing of sparse undersampled multi-coil data. It takes advantage of a concept named “Joint Sparsity“, which exploits the fact that all channels of a coil array detect the same sparse object weighted with the coil sensitivity profiles. The practical use of this new algorithm is demonstrated in dynamic radial cardiac imaging. Accurate reconstructions of cardiac motion in free breathing without ECG triggering were obtained for high undersampling factors. An Iterative GRAPPA algorithm is introduced in Chapter 6 that can recover undersampled data from arbitrary (Non-Cartesian) trajectories and works solely in the Cartesian plane. This characteristic makes the proposed Iterative GRAPPA computationally more efficient than SPIRiT. Iterative GRAPPA was developed in a preceding step to combine parallel imaging with CS. Optimal parameters for Iterative GRAPPA (e.g. number of iterations, GRAPPA kernel size) were determined in phantom experiments and verified by retrospectively undersampling and reconstructing a radial cardiac cine dataset. The synergistic combination of the coil-by-coil Strict DC CS method and Iterative GRAPPA called CS-GRAPPA is presented in Chapter 7. CS-GRAPPA allows accurate reconstruction of undersampled data from even higher acceleration factors than each individual method. It is a formulation equivalent to L1-SPIRiT but computationally more efficient. Additionally, a comparison with CS-CC is given. Interestingly, exploiting joint sparsity in CS-CC is slightly more efficient than the proposed CS-GRAPPA, a hybrid of parallel imaging and CS. The last chapter of this thesis concludes the findings presented in this dissertation. Future applications expected to benefit from CS are discussed and possible synergistic combinations with other existing MR methodologies for accelerated imaging are also contemplated.