TY - THES A1 - Wech, Tobias T1 - Compressed Sensing in der funktionellen kardialen Magnetresonanztomographie T1 - Compressed sensing in functional cardiac magnetic resonance imaging N2 - Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer Variabilität als Referenzstandard für die Bestimmung der kardialen Funktion betrachtet. Auch in der präklinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden Fällen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der präklinischen Kleintierbildgebung müssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemäßig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische Ansätze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. Während zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt repräsentierte, spielte sich in den letzten fünf Jahren vermehrt die von Donoho und Candès eingeführte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollständig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der Sparsität des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend für den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante Veränderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter Näherung als linear und stationär betrachtet werden, so repräsentiert die CS-Rekonstruktion eine nichtlineare und nichtstationäre Transformation. Objektinformation wird nicht mehr ortsunabhängig und proportional zur Intensität in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenüber der unterabgetasteten Messung als auch die Sparsität des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive Einschätzung der Bildqualität CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine Verkürzung der Messzeit ohne Verlust an Bildqualität, wobei letztere bisher größtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationär) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationären Verhaltens ohne Weiteres keine äquivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) für den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berücksichtigt die Ortsabhängigkeit der CS-Rekonstruktion und muss daher für jeden Ort (Pixel) eines Bildes bestimmt werden. Darüber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzuführen. Es wurde sowohl der Einfluss typischer Unterabtastschemata für CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der räumlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollständig abgetasteten Referenz zur Qualitätsbeurteilung zurückgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die Berücksichtigung der nominell höchsten Frequenzen k_max unerlässlich ist. Frühere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgeführten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfällig für zeitliches Blurring. Dieses resultiert aus der Unterdrückung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist für eine umfassende Analyse der Bildqualität auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-Verhältnisses (SNR) notwendig. Während Aliasing mit Hilfe der Einträge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten Qualitätsparameter ist eine robuste Bewertung der Bildqualität auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der Bildqualität behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der präklinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgeführt. Die Algorithmen für eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) Datensätze entwickelt und optimiert. Zunächst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder für jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollständig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollständig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter für jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-Mäusespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. Für die PI-Beschleunigung wurde der vollständig abgetastete k-Raum zunächst gleichmäßig unterabgetastet. Auf dem resultierenden Untergitter wurde zusätzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgeführt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. Zunächst wurde mittels CS das äquidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusätzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das äquidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollständig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollständig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung führte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. Während mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, führte ein höherer PI-Beschleunigungsfaktor zu einer leichten Verstärkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulässt. Die LPSF-Analyse zeigte einen Verlust der räumlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stärker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der präklinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik für die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden üblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. Für die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen präklinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische Funktionalität der Rekonstruktionstechnik bei einer Beschleunigung bezüglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollständig abgetasteten Datensatz waren vernachlässigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollständiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusätzliche Aliasing-Artefakte in den äußeren Partitionen. Die für radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch über das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung für die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkürzten Messzeit. N2 - Because of its high reproducibility and its low variability, magnetic resonance imaging (MRI) of the heart is considered the gold-standard for assessing the cardiac function. In preclinical research, magnetic resonance imaging equally provides an accurate characterization of the cardiac function and enables an excellent analysis of modeled diseases. However, there is still a need for improvement in both applications. Clinical cardiac MRI represents a sophisticated procedure featuring long scan times. This renders the examination comparatively expensive. In preclinical imaging of small animals, long scan times have to be accepted to obtain the required high spatial and temporal resolution. Fast imaging is thus essential for an effective application of cardiac MRI in large collectives. Besides the improvement of the scanner hardware and the optimization of imaging sequences, research in the last decade concentrated on procedures to accelerate MR-data acquisition by exploiting information theory. While numerous publications were associated with parallel imaging (PI) at the beginning of this millennium, the compressed sensing theory (CS) recently gained more and more interest. The latter technique enables the reconstruction of signals from undersampled linear measurements (e.g. the Fourier basis) by exploiting the sparsity of the signal in any known transform domain. As MRI is perfectly qualified for an application of CS, a lot of publications already report on dedicated research. However, the algorithms needed for the reconstruction of undersampled data significantly alter the imaging process of MRI. Classical MRI could be assumed to be linear and stationary in a sufficiently good approximation. The introduction of CS into MRI means a change towards a non-linear and non-stationary transformation. Object information is no longer transferred into an image independently from its location and proportional to its intensity. The image is rather the result of an optimization process maximizing both the fidelity to measured data as well as the sparsity of the signal. The first chapter of this thesis describes a method to objectively evaluate the image quality of MR images reconstructed by CS algorithms. The acceleration with CS promises a reduction of scan time while preserving the image quality. The latter, however, has only been assessed qualitatively or in an insufficient quantitative manner. While classical (linear and stationary) MRI could be validated robustly and effectively by determining a point spread function (PSF), CS algorithms prohibit a corresponding analysis in an analogous manner due to their non-linear and non-stationary behavior. Therefore, the application of a local point spread function (LPSF) was investigated for the iterative soft thresholding (IST) algorithm used in this thesis, to enable a comparative evaluation for imaging systems including CS. The LPSF considers the local dependency of the CS algorithm and thus has to be determined in every location (pixel) of an image. In addition, the LPSF was defined in the linear part of the CS transformation. Small local perturbation on the image to be evaluated were reconstructed for this purpose. The width of the main lobe of the LPSF was used to perform spatially resolved studies on the resolution. The influence of typical undersampling schemes for CS as well as the usage of a discrete gradient transform for a further sparsification were investigated. Subsequently, the procedure was used to assess the spatial and temporal resolution in cardiac MRI. For all CS reconstructions performed in this work, the method allowed a solid and objective analysis of the image resolution. While up to now, comparisons to a fully sampled reference are widely used for a quality assessment, the proposed resolution evaluation represents a step towards a standardized analysis of images obtained by exploiting CS acceleration. The study on sampling schemes revealed, that also for CS accelerated acquisitions, the highest frequencies of the desired k-space have to be included. Former publications proposed undersampling patterns which partly featured a strong weight towards the center of k-space. The results of this thesis put these findings into perspective, as a loss in resolution has been observed for according approaches, at least for the simulations performed in this work. The dynamic acquisitions which were reconstructed exploiting x-f-sparsity proved to be prone to temporal blurring. This is substantiated by the suppression of high temporal frequencies and was analyzed by means of spatially resolved maps. Besides the resolution, an investigation of potential aliasing artifacts as well as the signal-to-noise-ratio (SNR) is essential for a comprehensive quality evaluation. While aliasing may also be investigated by means of the entries of the LPSF outside the main lobe, a modification of the multi-replica method proposed by Robson et al. was presented in chapter 5 to analyze the noise in CS reconstructed images. Taking into account all quality parameters, a robust evaluation of image quality is possible, even when CS is included in the imaging process. This allows a more objective comparison between new developments and present standard procedures and thus may aid the introduction of CS in clinical imaging. After the theoretical analysis on image quality, the next part of this thesis reports on the first application of CS to accelerate functional cardiac MRI of small animals. The studies were performed in cooperation with the British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) of the University of Oxford. The algorithms needed for the CS acceleration were developed and optimized by means of the data acquired by the BMRU at their 9,4 T scanner.\\ An acceleration solely based on CS was investigated first. For this purpose, an ECG- and respiratory gated Cartesian cine acquisition was undersampled in phase encoding direction and reconstructed using CS. The dynamic time series was sparsified by determining temporal difference images for every time frame. A fully sampled temporal average image was obtained by varying the sampling pattern in the temporal dimension. Subsequently, this average image was subtracted from the images of individual heart phases, yielding the sparse temporal difference images. In the validation stage of the study, fully sampled cine acquisitions of mouse hearts were retrospectively undersampled in order to figure out the maximum possible CS acceleration. Cardiac functional parameters were determined for each group of a certain undersampling factor and compared by a statistical analysis. It was shown that a three-fold acceleration is possible without any degradation in the accuracy of the method. This undersampling factor was then validated in an accelerated measurement with a subsequent CS reconstruction. For this purpose, the sampling patterns were further optimized using the transform point spread function. In the subsequent chapter, the CS theory was combined with PI to further increase the acceleration. Again, the phase encoding direction of a Cartesian trajectory was undersampled. The acquisitions were performed using a 9,4 T scanner equipped with an 8 channel mouse coil. In order to exploit the potential of both techniques, CS and PI were combined in a serial manner. First, the k-space was equidistantly undersampled to enable the application of PI. An additional undersampling according to pseudo random numbers was then performed on the resulting sub-grid to allow an acceleration by CS. In consequence, the reconstruction was performed in a serial manner, too. CS was first applied to reconstruct the equidistantly undersampled sub-grid. GRAPPA was used subsequently to compute the still missing data. The equidistantly undersampled sub-grid was shifted from heart phase to heart phase in order to obtain a fully sampled low temporal resolution k-space for a calibration of the GRAPPA-weights. This procedure spares the acquisition time of a separate calibration scan. The following combinations were investigated by retrospectively undersampling a fully sampled cine dataset: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 and 3 x 3. The analysis of the noise behavior, the systematic error and the resolution leads to the conclusion that a six-fold acceleration is possible using the proposed hybrid technique. While an increasing factor of the CS acceleration resulted in a slightly larger systematic error, a higher PI acceleration factor led to a slight noise enhancement. However, noise was suppressed for increasing CS acceleration at the same time. In summary, the deviations were at a level which allowed accelerations of up to R_CS x R_PI = 3 x 3. The determination of LPSFs showed a loss in spatial resolution of approximately 50% for a six-fold and up to 64% for nine-fold acceleration. Obviously, the observed suppression of noise was paid by a reduced image resolution for the comparatively noisy acquisitions in small animals. The increased blurring at the endocardial border impedes the segmentation and represents a possible source of error. Taking into consideration all results, a six-fold acceleration (R_CS x R_PI = 2 x 3, 3 x 2) seems reasonable. The additional usage of PI thus enables a further acceleration by a factor of 2 in comparison to an exclusive application of CS. In summary, CS enables a distinct reduction of scan time in preclinical functional cardiac MRI of small animals. Even if no phased-array-coils are available, the necessary amount of data can be reduced to one third without impairing the accuracy of left-ventricular volumes and mass measurements. For acquisitions performed with phased-array-coils, the three-fold acceleration by PI can be extended by an additional two-fold CS acceleration to a joint factor of R=6. Therefore, CS may contribute to an effective application of cardiac MRI in small animals for large collectives. In the last part of the thesis, a modality for clinical functional MRI of the heart was developed. CS was used to enable the acquisition of the whole heart in a single breath-hold of the patient. The current method of choice usually acquires 10-15 2D-slices of the heart, while each measurement requires a separate breath-hold. An undersampled 3D-trajectory was used to reach the necessary acceleration. Phase-encoding in one direction and radial projections in the two remaining ones allowed for an effective acquisition below the Nyquist-criterion. The sparsification of the image series was achieved by subtracting a temporal average image as performed for the preclinical studies. The functionality of the reconstruction technique at an acceleration factor of R ~ 10 was validated in a simulation based on a retrospectively undersampled dataset. The differences between the CS reconstructed and the fully sampled dataset were negligible and thus, the proposed trajectory was implemented at the scanner. An image series depicting the cardiac function with coverage of the full heart was acquired in a single breath-hold of a healthy volunteer using this sequence. Data not covered by the trajectory were reconstructed by the algorithm developed in the validation stage. Due to the slice profile of the fast excitation pulses, additional aliasing artifacts were present in the outer partitions with respect to the images obtained in the simulation. Streaking artifacts of a low intensity were still visible. Apart from that, the dynamics of the heart were excellently captured. The high contrast between the blood pool and the myocardium perfectly qualifies the images for the assessment of cardiac functional parameters. Therefore, the method allows for a higher patient comfort and throughput compared to the gold standard by drastically reducing the amount of necessary breath-holds to a single one. KW - Kernspintomografie KW - Magnetresonanztomographie KW - Kardiale MR-Bildgebung KW - Compressed Sensing KW - magnetic resonance imaging KW - cardiac magnetic resonance imaging KW - compressed sensing KW - Signalregenerierung KW - NMR-Tomographie Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-77179 ER - TY - THES A1 - Richter, Dominik T1 - Compressed Sensing zur Filterung und Reduktion der Rekonstruktionszeit in der Positronen-Emissions-Tomographie T1 - Compressed sensing for filtering and reduction of reconstruction time in positron emission tomography N2 - Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen. Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen. Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt. Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist. Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt. Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war. Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist. N2 - In positron emission tomography (PET) radioactive substances are used. The exposure to ionizing radiation can cause damage to the human body. Therefore, there is an ongoing interest in reducing the amount of applied dose while keeping the quality of the results. With regard to the cost effectiveness of the systems a reduction of acquisition as well as reconstruction time is desirable. Within this work two possibilities are presented that enable achieving these objectives by using compressed sensing (CS). Filtering methods can be used beside the development of novel reconstruction algorithms to improve the quality of reconstructed images. One advantage of filters is the possibility of retrospective usage. Therewith, the image quality can be evaluated and the filter is solely applied if necessary. Over the past years, CS was the subject of several research activities in the field of imaging techniques, especially in magnetic resonance imaging and x-ray computed tomography (CT). CS could enable imaging modalities such as CT and PET to reconstruct images using fewer measurements, thus reducing scanning time and a patient's exposure to radiation. However, data on applications of CS in the molecular imaging with PET are lacking. The first part of this dissertation describes a method that uses CS as a filter in PET. The initial point is a complete and analytically reconstructed dataset. Several different sampling patterns are applied for retrospective undersampling followed by an reconstruction using CS. In the noise-free case each reconstruction would yield the original image. However, additional noise results in artefacts and in a decline of the result. On the one hand, CS is able to reduce noise. On the other hand, an averaging of several different reconstructions can reduce artefacts. Therewith, the image quality can be improved significantly. It is shown that the method could be applied to 2D as well as to 3D datasets. Best results are obtained when the dataset consists of a few events only. While the quality of analytically reconstructed images is extremely bad, the greatest improvement and therewith the maximum increase of the signal-to-noise ratio is achieved using the CS filter method. Thereby, it is possible to outperform the results of iterative reconstructions. In practice, an application to dynamic or gated acquisitions would be conceivable. Reconstructions at both acquisition modes are often based on few counts. The resulting images are commonly of bad quality, whereby an improvement using a filter is reasonable. The second part of this work deals with raw data based triggering at a small animal PET as well as the application of CS to reduce reconstruction time. Former publications already showed the practicability of raw data based triggering methods at human datasets. However, with regard to preclinical utilisation and especially to datasets that focus mice hearts, there are only few studies available. Within this work it is shown that the segmented centre of mass method (COMseg) enables cardiac gating of datasets of rats as well as mice. When applying the COMseg list-mode data have to be sub-divided into small time frames and sorted to sinograms. Afterwards, a rebinning algorithm is applied to each sinogram. The enormous expenditure of time is a disadvantage that should not be underestimated. In practice, an application to larger studies is difficult thereby. The aim of triggering methods is to yield a triggering signal which enables subdivision e.g. of the heartbeat in several phases. Usually, a triggering signal has a sparse representation in frequency space. This previous knowledge allows the application of CS. Instead of all data only a fraction of the dataset is sorted to small time frames and analysed using the COMseg. CS is used to calculate the complete triggering signal out of the undersampled one. The amount of undersampling corresponds to the reduction factor of reconstruction time. Thereby, a significant acceleration can be achieved. However, the application of this technique is not limited to the COMseg. If a raw data based triggering method calculates each sample individually, CS can be applied. Therefore, algorithms that were not practicable because of long computation times may become interesting. In summary, data of this work suggest that CS could be a novel analysis tool for filtering and reduction of reconstruction time in PET. KW - Komprimierte Abtastung KW - Positronen-Emissions-Tomographie KW - Medizintechnik KW - Filter KW - filtering KW - Compressed Sensing KW - PET Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-106569 ER -