Refine
Has Fulltext
- yes (18)
Is part of the Bibliography
- yes (18)
Year of publication
Document Type
- Doctoral Thesis (18)
Keywords
- Bildgebendes Verfahren (18) (remove)
Institute
- Physikalisches Institut (7)
- Graduate School of Life Sciences (6)
- Institut für diagnostische und interventionelle Radiologie (Institut für Röntgendiagnostik) (5)
- Institut für Psychologie (2)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (1)
- Julius-von-Sachs-Institut für Biowissenschaften (1)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (1)
- Urologische Klinik und Poliklinik (1)
Hintergrund: Die Alzheimer-Erkrankung ist die häufigste neurodegenerative Erkrankung. Da es zurzeit für sie noch keine Heilung gibt, richtet sich das Hauptaugenmerk auf eine möglichst frühe Diagnose und die Behandlung mit krankheitsverzögernden Medikamenten. Vor allem die funktionelle Bildgebung gilt im Bereich der Frühdiagnose als vielversprechend. Neben dem Gedächtnis werden die visuell-räumliche Informationsverarbeitung, exekutive Funktionen und Aufmerksamkeitsprozesse untersucht. Hierbei zeigen sich zentralnervöse Aktivierungsauffälligkeiten in kortikalen Zielregionen etwa im präfrontalen und im parietalen Kortex. Verlaufsuntersuchungen konzentrieren sich vor allem darauf aus der Gehirnaktivierung Vorhersagen über kognitive Veränderungen bei älteren Personen mit und ohne Gedächtnisstörung treffen zu können. Nur wenige Studien erfassen dabei jedoch die Gehirnaktivierung zu mehreren Messzeitpunkten. Gerade für große Stichproben und wiederholte Messungen könnte die funktionelle Nahinfrarotspektroskopie (fNIRS) sich als Alternative zur Magnetresonanztomographie anbieten. Ziel: Ziel der Studie war es, mit fNIRS und ereigniskorrelierten Potentialen funktionelle Unterschiede zwischen Alzheimer-Patienten und gleichaltrigen Kontrollen in mehreren Funktionsbereichen darzustellen und ihre Veränderung über den Zeitraum eines Jahres zu verfolgen. Zum ersten Mal sollte im Rahmen einer prospektiven Untersuchung mit fNIRS geprüft werden ob kortikale Aktivierungen zur Vorhersage von neuropsychologischen Testwerten genutzt werden können. Zusätzlich stellte sich die Frage, ob fNIRS für Verlaufsuntersuchungen an älteren Stichproben geeignet ist. Methoden: Im Rahmen der vorliegenden Arbeit wurden zum ersten Messzeitpunkt (T1) 73 Patienten und 71 Kontrollen mit vier Paradigmen in den drei Funktionsbereichen visuell-räumliche Informationsverarbeitung, exekutive Funktionen und zentralnervöse Filtermechanismen mit fNIRS und ereigniskorrelierten Potentialen gemessen. Die Probanden durchliefen eine Line Orientation Aufgabe, zwei Versionen einer Wortflüssigkeitsaufgabe (phonologisch und semantisch) und das P50-Doppelklickparadigma. Zielparameter waren dabei die aufgabenbezogene Aktivierung im parietalen Kortex, im dorsolateralen Präfrontalkortex (DLPFC) und das sensorische Gating, gemessen durch die P50-Supression nach wiederholter Reizdarbietung. Zusätzlich wurden zwei typische Tests zur Demenzdiagnostik (MMST und DemTect) erhoben. Die zweite Messung (T2) fand nach 12 Monaten statt und lief identisch zur ersten Untersuchung ab. Zu T2 konnten 14 Patienten und 51 Kontrollen erneut rekrutiert werden. Ergebnisse: Zu T1 konnte mit fNIRS ein Aktivierungsdefizit für Patienten im DLPFC während der phonologischen Wortflüssigkeitsaufgabe und im rechten Parietalkortex während der Line Orientation Aufgabe festgestellt werden. Für die semantische Wortflüssigkeitsaufgabe und das sensorische Gating zeigten sich keine zentralnervösen Unterschiede. Über das Jahr hinweg nahm die aufgabenbezogene Aktivierung der Patienten im linken DLPFC für beide Versionen der Wortflüssigkeitsaufgabe deutlich ab, während gleichaltrige Kontrollpersonen keine kortikalen Veränderungen zeigten. Zu T2 war das sensorische Gating der Patienten außerdem deutlich schlechter im Vergleich zu gesunden Kontrollen. Die Veränderungen der Oxygenierung während der Wortflüssigkeitsaufgabe konnten für gesunde Kontrollen Verschlechterungen im MMST und im DemTect vorhersagen. Vor allem ein Verlust der Lateralisierung ging mit einem Abfall in den kognitiven Tests einher. Schlussfolgerung: Spezifische Defizite in der kortikalen Aktivierung konnten bei Alzheimer-Patienten mit fNIRS beobachtet und genauer beschrieben werden. Auch die Veränderung im Verlauf eines Jahres ließ sich mit dieser Methode verfolgen. Für Längsschnittuntersuchungen, die sich mit der kortikalen Aktivierung als Prädiktor für dementielle Entwicklungen beschäftigen, bietet sich fNIRS somit als praktische Alternative zur fMRT an, zumal die gemessenen Veränderungen in der Oxygenierung auch prognostischen Wert für ältere Kontrollpersonen besaßen. Vor allem die funktionelle Lateralisierung in frontalen Kortexbereichen scheint als Prädiktor kognitiver Leistungen im Alter von Bedeutung zu sein.
The SNR spectra model and measurement method developed in this work yield reliable application-specific optima for image quality. This optimization can either be used to understand image quality, find out how to build a good imaging device or to (automatically) optimize the parameters of an existing setup.
SNR spectra are here defined as a fraction of power spectra instead of a product of device properties. In combination with the newly developed measurement method for this definition, a close correspondence be- tween theory and measurement is achieved. Prior approaches suffer from a focus on theoretical definitions without fully considering if the defined quantities can be measured correctly. Additionally, discrepancies between assumptions and reality are common.
The new approach is more reliable and complete, but also more difficult to evaluate and interpret. The signal power spectrum in the numerator of this fraction allows to model the image quality of different contrast mechanisms that are used in high-resolution x-ray imaging. Superposition equations derived for signal and noise enable understanding how polychromaticity (or superposition in general) affects the image quality.
For the concept of detection energy weighting, a quantitative model for how it affects im- age quality was found. It was shown that—depending on sample properties—not detecting x-ray photons can increase image quality. For optimal computational energy weighting, more general formula for the optimal weight was found. In addition to the signal strength, it includes noise and modulation transfer.
The novel method for measuring SNR spectra makes it possible to experimentally optimize image quality for different contrast mechanisms. This method uses one simple measurement to obtain a measure for im- age quality for a specific experimental setup. Comparable measurement methods typically require at least three more complex measurements, where the combination may then give a false result. SNR spectra measurements can be used to:
• Test theoretical predictions about image quality optima.
• Optimize image quality for a specific application.
• Find new mechanisms to improve image quality.
The last item reveals an important limitation of x- ray imaging in general: The achievable image quality is limited by the amount of x-ray photons interacting with the sample, not by the amount incident per detector area (see section 3.6). If the rest of the imaging geometry is fixed, moving the detector only changes the field of view, not the image quality. A practical consequence is that moving the sample closer to the x-ray source increases image quality quadratically.
The results of a SNR spectra measurement represent the image quality only on a relative scale, but very reliable. This relative scale is sufficient for an optimization problem. Physical effects are often already clearly identifiable by the shape of the functional relationship between input parameter and measurement result.
SNR spectra as a quantity are not well suited for standardization, but instead allow a reliable optimization. Not satisfying the requirements of standardization allows to use methods which have other advantages. In this case, the SNR spectra method describes the image quality for a specific application. Consequently, additional physical effects can be taken into account. Additionally, the measurement method can be used to automate the setting of optimal machine parameters.
The newly proposed image quality measure detection effectiveness is better suited for standardization or setup comparison. This quantity is very similar to measures from other publications (e.g. CNR(u)), when interpreted monochromatically. Polychromatic effects can only be modeled fully by the DE(u). The measurement processes of both are different and the DE(u) is fundamentally more reliable.
Information technology and digital data processing make it possible to determine SNR spectra from a mea- sured image series. This measurement process was designed from the ground up to use these technical capabilities. Often, information technology is only used to make processes easier and more exact. Here, the whole measurement method would be infeasible without it. As this example shows, using the capabilities of digital data processing much more extensively opens many new possibilities. Information technology can be used to extract information from measured data in ways that analog data processing simply cannot.
The original purpose of the SNR spectra optimization theory and methods was to optimize high resolution x-ray imaging only. During the course of this work, it has become clear that some of the results of this work affect x-ray imaging in general. In the future, these results could be applied to MI and NDT x-ray imaging. Future work on the same topic will also need to consider the relationship between SNR spectra or DE(u) and sufficient image quality.This question is about the minimal image quality required for a specific measurement task.
In this work, a model-based acceleration of parameter mapping (MAP) for the determination of the tissue parameter T1 using magnetic resonance imaging (MRI) is introduced. The iterative reconstruction uses prior knowledge about the relaxation behavior of the longitudinal magnetization after a suitable magnetization preparation to generate a series of fully sampled k-spaces from a strongly undersampled acquisition. A Fourier transform results in a spatially resolved time course of the longitudinal relaxation process, or equivalently, a spatially resolved map of the longitudinal relaxation time T1.
In its fastest implementation, the MAP algorithm enables the reconstruction of a T1 map from a radial gradient echo dataset acquired within only a few seconds after magnetization preparation, while the acquisition time of conventional T1 mapping techniques typically lies in the range of a few minutes. After validation of the MAP algorithm for two different types of magnetization preparation (saturation recovery & inversion recovery), the developed algorithm was applied in different areas of preclinical and clinical MRI and possible advantages and disadvantages were evaluated.
Magnetic Resonance Imaging (MRI) is an imaging modality which provides anatomical or functional images of the human body with variable contrasts in an arbitrarily positioned slice without the need for ionizing radiation. In MRI, data are not acquired directly, but in the reciprocal image space (otherwise known as k-space) through the application of spatially variable magnetic field gradients. The k-space is made up of a grid of data points which are generally acquired in a line-by-line fashion (Cartesian imaging). After the acquisition, the k-space data are transformed into the image domain using the Fast Fourier Transformation (FFT). However, the acquisition of data is not limited to the rectilinear Cartesian sampling scheme described above. Non-Cartesian acquisitions, where the data are collected along exotic trajectories, such as radial and spiral, have been shown to be beneficial in a number of applications. However, despite their additional properties and potential advantages, working with non-Cartesian data can be complicated. The primary difficulty is that non-Cartesian trajectories are made up of points which do not fall on a Cartesian grid, and a simple and fast FFT algorithm cannot be employed to reconstruct images from non-Cartesian data. In order to create an image, the non-Cartesian data are generally resampled on a Cartesian grid, an operation known as gridding, before the FFT is performed. Another challenge for non-Cartesian imaging is the combination of unusual trajectories with parallel imaging. This thesis has presented several new non-Cartesian parallel imaging methods which simplify both gridding and the reconstruction of images from undersampled data. In Chapter 4, a novel approach which uses the concepts of parallel imaging to grid data sampled along a non-Cartesian trajectory called GRAPPA Operator Gridding (GROG) is described. GROG shifts any acquired k-space data point to its nearest Cartesian location, thereby converting non-Cartesian to Cartesian data. The only requirements for GROG are a multi-channel acquisition and a calibration dataset for the determination of the GROG weights. Chapter 5 discusses an extension of GRAPPA Operator Gridding, namely Self-Calibrating GRAPPA Operator Gridding (SC-GROG). SC-GROG is a method by which non-Cartesian data can be gridded using spatial information from a multi-channel coil array without the need for an additional calibration dataset, as required in standard GROG. Although GROG can be used to grid undersampled datasets, it is important to note that this method uses parallel imaging only for gridding, and not to reconstruct artifact-free images from undersampled data. Chapter 6 introduces a simple, novel method for performing modified Cartesian GRAPPA reconstructions on undersampled non-Cartesian k-space data gridded using GROG to arrive at a non-aliased image. Because the undersampled non-Cartesian data cannot be reconstructed using a single GRAPPA kernel, several Cartesian patterns are selected for the reconstruction. Finally, Chapter 7 discusses a novel method of using GROG to mimic the bunched phase encoding acquisition (BPE) scheme. In MRI, it is generally assumed that an artifact-free image can be reconstructed only from sampled points which fulfill the Nyquist criterion. However, the BPE reconstruction is based on the Generalized Sampling Theorem of Papoulis, which states that a continuous signal can be reconstructed from sampled points as long as the points are on average sampled at the Nyquist frequency. A novel method of generating the “bunched” data using GRAPPA Operator Gridding (GROG), which shifts datapoints by small distances in k-space using the GRAPPA Operator instead of employing zig-zag shaped gradients, is presented in this chapter. With the conjugate gradient reconstruction method, these additional “bunched” points can then be used to reconstruct an artifact-free image from undersampled data. This method is referred to as GROG-facilitated Bunched Phase Encoding, or GROG-BPE.
Der Einfluss von Aufmerksamkeit und Interferenzkontrolle auf die Verarbeitung visueller Stimuli
(2008)
Gegenstand der vorliegenden Arbeit war die Frage, inwieweit die neuronale Verarbeitung visueller Stimuli durch Prozesse der Aufmerksamkeit und des Arbeitsgedächtnisses moduliert werden kann. Darüber hinaus wurde untersucht, welche „top down“ Prozesse diese Modulation steuern. Dabei wurden zwei konkurrierende Ansichten als mögliche Erklärungsmodelle zugrunde gelegt und überprüft. Zum einen wäre es möglich, dass selektive Aufmerksamkeit zwei qualitativ unterschiedliche Mechanismen beinhaltet. Demnach würde neben dem Fokussieren auf relevante Informationen auch ein aktiver Prozess der Inhibition der Verarbeitung irrelevanter Stimuli existieren. Zum anderen ist es aber auch denkbar, dass aufgrund begrenzter Verarbeitungsressourcen das Fokussieren auf relevante Reize automatisch mit dem Nichtbeachten irrelevanter Stimuli einhergeht und nur ein Mechanismus existiert. In einem ersten Experiment wurde vorab die Alertness als ein grundlegender Prozess der Aufmerksamkeit mit der Nah-Infrarot Spektroskopie (NIRS) untersucht. Mittels eines zweigestuften Studiendesigns wurden in einem ersten Schritt für die Alertness relevante Regionen über fronto-temporalen Hirnarealen definiert. Als relevant erwiesen sich Areale des mittleren und superioren temporalen Kortex der rechten Hemisphäre und der ventrale Teil des inferioren frontalen Kortex der linken Hemisphäre. In einer zweiten Datenerhebung konnte für diese Regionen eine signifikant höhere Aktivierung während der Alertnessbedingung im Vergleich zu einer visuellen und motorischen Kontrollbedingung gefunden werden. Mit dem zweiten Experiment sollten bestehende, mit dem Elektroenzephalogramm (EEG) erhobene, Befunde zur Modulation der neuronalen Verarbeitung visueller Stimuli repliziert werden. Dies geschah mithilfe eines neu entwickelten Untersuchungsparadigmas, einer modifizierten n-back Aufgabe. Wie erwartet fand sich eine erhöhte Verarbeitung aufgaben-relevanter Reize im Vergleich zu einer perzeptuellen Kontrollbedingung. Die Verarbeitung irrelevanter Reize wurde allerdings nicht unterdrückt. Explorativ fand sich ein entsprechendes Korrelat der Aufmerksamkeitslenkung über frontalen Elektroden. In einem dritten Experiment wurde das modifizierte n-back Paradigma an die Anforderungen einer NIRS Messung angepasst, um frontale Effekte der Aufmerksamkeitslenkung direkter erfassen zu können als mit dem EEG. Wie erwartet fand sich bezüglich des Beachtens wie auch des Ignorierens von Stimuli eine Beteiligung frontaler Strukturen. Auf beachtete Stimuli folgte eine bilaterale Aktivierung des dorsolateralen präfrontalen Kortex (DL-PFK) und eine Aktivierung des linken inferioren frontalen Kortex bis hin zum prä- und postzentralen Kortex. Das Ignorieren visueller Stimuli führte zu einer weitläufigen Aktivierung des rechten präfrontalen Kortex (PFK). Eine Beteiligung des linken inferioren frontalen Gyrus an der Interferenzkontrolle konnte nicht wie erwartet nachgewiesen werden. Der Vergleich der beiden Aktivierungsmuster ergab keine signifikanten Unterschiede. Die zugrunde liegenden Prozesse des Arbeitsgedächtnisses und der Interferenzkontrolle führten also zu einer Aktivierung stark überlappender Hirnregionen. Nachdem die Ergebnisse der Experimente 2 und 3 keinerlei Hinweise auf einen aktiven Prozess der Interferenzinhibition nachweisen konnten, wurde im Experiment 4 die bisher genutzte 1-back Aufgabe durch eine schwierigere 2-back Aufgabe ersetzt. Aufgrund der erhöhten Auslastung des Arbeitsgedächtnisses sollte eine stärkere Anstrengung und damit eine verstärkte frontale Aktivierung bei der Interferenzinhibition auftreten. Diese Hypothese wurde mit einer frontalen NIRS Messung überprüft (Experiment 4a). Wie erwartet führte die erhöhte Auslastung des Arbeitsgedächtnisses zu einer verstärkten Aktivierung des PFK bezüglich beachteter Reize. Hinsichtlich ignorierter Reize fand sich allerdings keine frontale Beteiligung. Parallel erhobene EEG Daten zeigten keinen Unterschied zwischen der Verarbeitung beachteter und ignorierter Gesichter. Die Verarbeitung passiv betrachteter Gesichter war im Gegensatz zu beachteten und ignorierten Gesichtern vermindert. Im zweiten Teil der Studie (Experiment 4b) wurden erstmals die okzipitalen Effekte der Aufmerksamkeitslenkung mit der NIRS erfasst. Im Einklang mit den Ergebnissen der ersten EEG Studie (Experiment 2) fand sich zwar eine verstärkte Verarbeitung beachteter, aber keine verminderte Verarbeitung ignorierter Reize. Zusammengenommen sprechen die fehlende aktive Inhibition von Distraktorreizen im okzipitalen Kortex und die vergleichbaren neuronalen Korrelate von Prozessen des Arbeitsgedächtnisses und der Interferenzinhibition im frontalen Kortex für die Hypothese einer Aufteilung von begrenzten Verarbeitungsressourcen zugunsten beachteter Reize.
Mit dem hier vorgestellten Untersuchungs- und Auswertealgorithmus konnte die Myokardperfusion weitgehend automatisiert semiquantitativ und quantitativ bestimmt werden. Dafür wurden zunächst die Bilddaten segmentiert und in Signalintensitäts-Zeit-Kurven transferiert. Durch eine Basislinien- und Kontaminationskorrektur wurden Artefakte minimiert. Mit Anwendung des Parallel-Bildgebungs-Verfahrens Auto-SENSE konnte zusätzlich eine Erhöhung der Schichtanzahl erreicht werden. Durch die angewendete Basislinienkorrektur konnten Inhomogenitäten verringert werden, welche durch Verwendung einer Oberflächenspule methodenbedingt auftreten. Partialvolumeneffekte, die durch die Morphologie des Herzens insbesondere basis- und spitzennah auftraten, führten durch eine Mischung aus KM-Anflutung im Myokard und Kontamination aus dem Ventrikellumen zu einer Beeinflussung der Perfusionsergebnisse. Durch die Verwendung der vorgestellten Kontaminationskorrektur konnten diese Artefakte erheblich minimiert werden. Die so errechneten Perfusionswerte korrelierten gut mit den in der Literatur angegebenen Daten, welche sowohl in tierexperimentellen als auch Probanden- und auch Patientenstudien mit unterschiedlichen Modalitäten ermittelt wurden. Eine regionale Heterogenität konnte nicht signifikant nachgewiesen werden. Molekular-physiologische Untersuchungen legen zwar nahe, dass es diese Heterogenität gibt, die regionale Verteilung der Perfusion wird jedoch kontrovers und noch keinesfalls abschließend in der Literatur diskutiert. Durch Anwendung von Auto-SENSE konnte mit einer Erhöhung der Schichtanzahl bei gleichbleibender Schichtdicke das gesamte linksventrikuläre Myokard untersucht werden. Trotz verringertem SNR waren die Ergebnisse vergleichbar mit der konventionellen Turbo-FLASH-Technik. Ob das Potential der Parallelbildgebung für eine Abdeckung des gesamten Herzens oder für eine höhere Auflösung von 3-4 Schichten pro Untersuchungen genutzt werden soll, ist in der aktuellen Literatur noch Gegenstand der Diskussion. Die hochaufgelösten Untersuchungen scheinen jedoch derzeit vorteilhafter aufgrund geringerer Partialvolumeneffekte sowie der besseren Beurteilbarkeit einer subendokardialen Zone und eines transmuralen Perfusionsgradienten. Die MR-Perfusionsbildgebung ist ein aktives und rasch wachsendes Gebiet innerhalb der kardialen Bildgebung mit großem Entwicklungspotential. Durch Einbindung in ein umfassendes Herz-MR-Untersuchungsprotokoll (z.B. Morphologie, Kinetik, evtl. MR-Koronarangiographie) ist in einem Untersuchungsgang eine umfassende Diagnostik bei Patienten mit Verdacht auf KHK möglich.
Entwicklung und Optimierung von Bildgebungssequenzen für die 1H-Magnetresonanztomographie der Lunge
(2007)
No abstract available
This work deals with the acceleration of cardiovascular MRI for the assessment
of functional information in steady-state contrast and for viability assessment
during the inversion recovery of the magnetization. Two approaches
are introduced and discussed in detail. MOCO-MAP uses an exponential
model to recover dynamic image data, IR-CRISPI, with its low-rank plus
sparse reconstruction, is related to compressed sensing.
MOCO-MAP is a successor to model-based acceleration of parametermapping
(MAP) for the application in the myocardial region. To this end, it
was augmented with a motion correction (MOCO) step to allow exponential
fitting the signal of a still object in temporal direction. Iteratively, this
introduction of prior physical knowledge together with the enforcement of
consistency with the measured data can be used to reconstruct an image
series from distinctly shorter sampling time than the standard exam (< 3 s
opposed to about 10 s). Results show feasibility of the method as well as
detectability of delayed enhancement in the myocardium, but also significant
discrepancies when imaging cardiac function and artifacts caused already by
minor inaccuracy of the motion correction.
IR-CRISPI was developed from CRISPI, which is a real-time protocol
specifically designed for functional evaluation of image data in steady-state
contrast. With a reconstruction based on the separate calculation of low-rank
and sparse part, it employs a softer constraint than the strict exponential
model, which was possible due to sufficient temporal sampling density via
spiral acquisition. The low-rank plus sparse reconstruction is fit for the use on
dynamic and on inversion recovery data. Thus, motion correction is rendered
unnecessary with it.
IR-CRISPI was equipped with noise suppression via spatial wavelet filtering.
A study comprising 10 patients with cardiac disease show medical
applicability. A comparison with performed traditional reference exams offer
insight into diagnostic benefits. Especially regarding patients with difficulty
to hold their breath, the real-time manner of the IR-CRISPI acquisition provides
a valuable alternative and an increase in robustness.
In conclusion, especially with IR-CRISPI in free breathing, a major acceleration
of the cardiovascular MR exam could be realized. In an acquisition
of less than 100 s, it not only includes the information of two traditional
protocols (cine and LGE), which take up more than 9.6 min, but also allows
adjustment of TI in retrospect and yields lower artifact level with similar
image quality.
In Magnetic Resonance Imaging (MRI), acquisition of dynamic data may be highly complex due to rapid changes occurred in the object to be imaged. For clinical diagnostic, dynamic MR images require both high spatial and temporal resolution. The speed in the acquisition is a crucial factor to capture optimally dynamics of the objects to obtain accurate diagnosis. In the 90’s, partially parallel MRI (pMRI) has been introduced to shorten scan times reducing the amount of acquired data. These approaches use multi-receiver coil arrays to acquire independently and simultaneously the data.
Reduction in the amount of acquired data results in images with aliasing artifacts. Dedicated methods as such Sensitivity Encoding (SENSE) and Generalized Autocalibrating Partially Parallel Acquisition (GRAPPA) were the basis of a series of algorithms in pMRI.
Nevertheless, pMRI methods require extra spatial or temporal information in order to optimally reconstruct the data. This information is typically obtained by an extra scan or embedded in the accelerated acquisition applying a variable density acquisition scheme.
In this work, we were able to reduce or totally eliminate the acquisition of the training data for kt-SENSE and kt-PCA algorithms obtaining accurate reconstructions with high temporal fidelity.
For dynamic data acquired in an interleaved fashion, the temporal average of accelerated data can generate an artifact-free image used to estimate the coil sensitivity maps avoiding the need of extra acquisitions. However, this temporal average contains errors from aliased components, which may lead to signal nulls along the spectra of reconstructions when methods like kt-SENSE are applied. The use of a GRAPPA filter applied to the temporal average reduces these errors and subsequently may reduce the null components in the reconstructed data. In this thesis the effect of using temporal averages from radial data was investigated. Non-periodic artifacts performed by undersampling radial data allow a more accurate estimation of the true temporal average and thereby avoiding undesirable temporal filtering in the reconstructed images. kt-SENSE exploits not only spatial coil sensitivity variations but also makes use of spatio-temporal correlations in order to separate the aliased signals. Spatio-temporal correlations in kt-SENSE are learnt using a training data set, which consists of several central k-space lines acquired in a separate scan. The scan of these extra lines results in longer acquisition times even for low resolution images. It was demonstrate that limited spatial resolution of training data set may lead to temporal filtering effects (or temporal blurring) in the reconstructed data.
In this thesis, the auto-calibration for kt-SENSE was proposed and its feasibility was tested in order to completely eliminate the acquisition of training data. The application of a prior TSENSE reconstruction produces the training data set for the kt-SENSE algorithm. These training data have full spatial resolution. Furthermore, it was demonstrated that the proposed auto-calibrating method reduces significantly temporal filtering in the reconstructed images compared to conventional kt-SENSE reconstructions employing low resolution training images. However, the performance of auto-calibrating kt-SENSE is affected by the Signal-to-Noise Ratio (SNR) of the first pass reconstructions that propagates to the final reconstructions.
Another dedicated method used in dynamic MRI applications is kt-PCA, that was first proposed for the reconstruction of MR cardiac data. In this thesis, kt-PCA was employed for the generation of spatially resolved M0, T1 and T2 maps from a single accelerated IRTrueFISP or IR-Snapshot FLASH measurement. In contrast to cardiac dynamic data, MR relaxometry experiments exhibit signal at all temporal frequencies, which makes their reconstruction more challenging. However, since relaxometry measurements can be represented by only few parameters, the use of few principal components (PC) in the kt-PCA algorithm can significantly simplify the reconstruction. Furthermore, it was found that due to high redundancy in relaxometry data, PCA can efficiently extract the required information from just a single line of training data.
It has been demonstrated in this thesis that auto-calibrating kt-SENSE is able to obtain high temporal fidelity dynamic cardiac reconstructions from moderate accelerated data avoiding the extra acquisition of training data. Additionally, kt-PCA has been proved to be a suitable method for the reconstruction of highly accelerated MR relaxometry data.
Furthermore, a single central training line is necessary to obtain accurate reconstructions. Both reconstruction methods are promising for the optimization of training data acquisition and seem to be feasible for several clinical applications.
Das Ziel dieser Arbeit war es, Methoden und Techniken für die morphologische und funktionelle Bildgebung der menschlichen Lunge mittels Kernspintomographie bei Feldstärken von 0,2 Tesla und 1,5 Tesla zu entwickeln und zu optimieren. Bei 0,2 Tesla wurde mittels der gemessenen Relaxationszeiten T1 und T2* eine 2D und eine 3D FLASH Sequenz zur Untersuchung der Lungenmorphologie optimiert. Sauerstoffgestützte Messungen der Relaxationszeiten T1 und T2* sowie eine SpinLabeling Sequenz liefern funktionelle Informationen über den Sauerstofftransfer und die Perfusion der Lungen. Bei 1,5 Tesla wurde die Lungenperfusion mittels MR-Kontrastmittel mit einer 2D und einer 3D Sequenz unter Verwendung der Präbolus Technik quantifiziert. Zudem wurden zwei MR-Navigationstechniken entwickelt, die es ermöglichen Lungenuntersuchungen unter freier Atmung durchzuführen und aus den Daten artefaktfreie Bilder zu rekonstruieren. Diese Techniken können in verschiedenste Sequenzen für die Lungenbildgebung implementiert werden, ohne dass die Messzeit dadurch signifikant verlängert wird.