Refine
Has Fulltext
- yes (38)
Is part of the Bibliography
- yes (38)
Year of publication
Document Type
- Doctoral Thesis (38)
Keywords
- Kernspintomografie (23)
- MRI (5)
- Kernspintomographie (4)
- Lunge (4)
- MRT (4)
- Biophysik (3)
- Compressed Sensing (3)
- Magnetresonanztomographie (3)
- Relaxationszeit (3)
- 3D-Bildgebung (2)
Institute
- Physikalisches Institut (33)
- Graduate School of Life Sciences (3)
- Graduate School of Science and Technology (3)
- Institut für Molekulare Infektionsbiologie (1)
- Institut für Theoretische Physik und Astrophysik (1)
- Lehrstuhl für Tissue Engineering und Regenerative Medizin (1)
- Medizinische Klinik und Poliklinik I (1)
Sonstige beteiligte Institutionen
- Universitätsklinikum Würzburg (3)
- Biomedizinische NMR Forschungs GmbH am Max-Planck-Institut fuer biophysikalische Chemie (1)
- Deutsches Zentrum für Herzinsuffizienz (1)
- Fraunhofer Institut für Integrierte Schaltungen (IIS) (1)
- Fraunhofer Institute for Integrierte Schaltungen (IIS) (1)
- Institut für Medizintechnik Schweinfurt (IMeS) (1)
- MRB Research Center for Magnetic-Resonance-Bavaria (1)
Die zahnmedizinische Behandlung von Erkrankungen der Zähne oder im Bereich der Mundhöhle erfolgt bei Weitem nicht immer aus optischen Gründen. Diese Erkrankungen werden auch mit ernsthaften Erkrankungen in Zusammenhang gebracht. Studien haben gezeigt, dass einige Erkrankungen im Mund- und Zahnbereich zu Herz- und Lungenkrankheiten oder Diabetes führen können. Oftmals erstreckt sich die Pathologie oder Symptomatik von Mund- und Zahnerkrankungen über einen weiten Bereich. In der zahnmedizinischen Klinik kommen daher viele verschiedene diagnostische Apparate zum Einsatz. Allerdings zählt die Magnetresonanztomographie, die sich in anderen Bereichen bereits zum wichtigsten bildgebenden Diagnosetool entwickelt hat, dort noch nicht zu den Standardverfahren. Dabei liegen ihre Vorteile auf der Hand: sie ist bekannt für sehr gute Bildkontraste vor allem zwischen verschiedenen Weichgewebsarten und kommt ohne gefährliche ionisierende Strahlung aus. Wahrscheinlich ist ersteres der Grund, warum die MRT in der Zahnmedizin noch nicht sonderlich vertreten ist, kommt es dort oft auf die kontrastreiche Darstellung von Hartgeweben an. Neueste Entwicklungen und Studien belegen jedoch die vielseitigen Vorteile der MRT auch in diesem Bereich. Ziel dieser Arbeit von der applikativen Seite betrachtet, war es, das enorme Potential der MRT in den vielseitigen Bereichen der Zahnmedizin weiterhin aufzuzeigen. Viele dieser Anwendungen stellen jedoch sehr hohe Anforderungen an die Systeme. Meist sind die darzustellenden Strukturen sehr klein und erfordern eine hohe Auflösung. Während man beim Röntgenverfahren beispielsweise die Energie des Strahles (Dosis) steigern kann, bedeutet dies in der MRT (ohne das Gerät zu wechseln) eine Verlängerung der Messzeit. Gerade im Bereich des Kopfes kommt es oft zu ungewollten Bewegungen, die das Ergebnis und die Reproduzierbarkeit der gewonnenen diagnostischen Informationen verschlechtern oder gänzlich unbrauchbar machen. Die grösste Herausforderung dabei ist die dreidimensionale Abformung von Zahnoberflächen in der Prothetik. Dieses Verfahren kann eine aufwändige und unangenehme manuelle Abformung der Zähne und die Herstellung eines Zwischengipsmodells ersetzen und ein direktes dreidimensionales Modell der Zahnoberflächen produzieren. Durch die moderne CAD-/CAM-Technik kann daraus vom Zahntechniker direkt eine Zahnrestauration erstellt werden. Daher war ein wichtiger Bestandteil des Projekts dentale MRT die Entwicklung einer Methode zur Erkennung und gleichzeitiger Korrektur von Bewegungen.
Verschiedenste Anforderungen waren an die Methode gestellt. Zum einen muss die Methode bereits Bewegungen im Bereich von ~100 µm erkennen, um die Anforderungen an die finale Bildauflösung zu unterschreiten. Bei der dentalen Abformung wird eine 1-Kanal-Empfängerspule verwendet und je nach Messung kann der Patient dabei auf dem Bauch oder Rücken liegen. Weiterhin muss die Bewegungserkennung ohne zusätzliche externe Geräte wie Kameras, deren Sicht z.B. durch den Patienten verdeckt ist, durchführbar sein.
Die vorliegende Arbeit deckt also zwei größere Themenblöcke ab. Zum einen wurden in der Arbeit neue Applikationen entwickelt oder weiterentwickelt, um verschiedenen Bereichen der Zahnmedizin den Zugang zu MRTUntersuchungen zu eröffnen. Kapitel 4 beschreibt die Möglichkeit, die Bewegung des Kiefergelenks dynamisch zu erfassen. Es stellte sich in der Arbeit heraus, dass sowohl die Bewegung von Weichgewebeanteilen darstellbar waren, als auch der intraartikuläre Abstand im Kiefergelenk unter Kaubelastung in Echtzeit vermessen werden konnte. Dabei wurde die Bildgebungssequenz und der zugehörige Rekonstruktionsalgorithmus so entwickelt, dass die Daten flexibel und ohne Vorwissen akquiriert und aufbereitet werden können. Hierbei konnten verschiedenen Pathologien anhand der dynamischen Bilder sichtbar gemacht werden und die dynamische MRT konnte Erkrankungen erkennen, die mit anderen Mitteln nicht sichtbar waren. Die vielen diagnostischen Möglichkeiten, die dadurch entstehen sind bisher noch nicht untersucht und sollten durch großangelegte Studien untersucht und belegt werden.
Kapitel 5 beschreibt die Ergebnisse einer großangelegten Studie im Bereich der dentomaxillären Bildgebung . Die diagnostischen Möglichkeiten der MRT für die kieferorthopädische Anwendung liegen klar auf der Hand. Die typischen Patienten in der Kieferorthopädie sind Kinder und Jugendliche. Die Abwesenheit von gewebsschädigender Strahlung ist hier ein besonderer Vorteil der MRT. Eine Messung dauert zudem nach diversen Weiterentwicklungen der Methode nur noch 2 (bzw. 4) Minuten. Die Auflösung in den gerenderten Bildern beträgt 0.25x0.25x0.5 mm. Mit der Methode konnte unter anderem die Geminisierung einer Zahnwurzel und der Abstand des Zahnmarks zur Zahnoberfläche (Zahnschmelz) dargestellt und vermessen werden.
Kapitel 6 stellt Neuentwicklungen im Bereich der dentalen Abformung von Zahnoberflächen dar. Hier wurde eine neue Methode entwickelt um den Patientenkomfort bei der Messung zu steigern und so Bewegungen im Vorhinein zu unterbinden. Bei der alten Methode liegt der Patient auf dem Bauch und ein großer Teil der Mundhöhle ist mit Kontrastmittel befüllt. Durch die Verwendung einer präparierten Tiefziehschiene kann das Kontrastmittel nun lokal appliziert
werden und eine Messung in Rückenlage das Patienten ist somit problemlos möglich. Die damit verbundene Reproduzierbarkeit der Abformungsergebnisse wäre durch eine großangelegte Studie zu zeigen. Die Hauptaufgabe der vorliegenden Dissertation war es, eine Methode zur Bewegungskorrektur zu entwickeln, die es ohne eine große Anzahl an Zusatzgeräten ermöglicht, die Bewegung eines Subjekts während der Messung zu erfassen und dementsprechend zu korrigieren. Diese neue Methode, gestützt auf einer Messung eines MRT-aktiven Markers der am Subjekt angebracht wird, beruht außer der Verwendung des Markers nur auf MRT-Hardware. Die Methode wird in Kapitel 8 vorgestellt. Da es sich bei der Methode um eine Neuentwicklung handelt, war es in erster Linie wichtig, die Einflüsse der verschiedenen Parameter, die sich auf die Positionierungsgenauigkeit auswirken, abzuschätzen und letzten Endes festzulegen. Dies wurde in mehreren Vorstudien, Experimenten und Computersimulationen abgehandelt. In der Arbeit konnte durch Validierungsexperimente gezeigt werden dass sich mit dem bildbasierten Navigator Bewegungen im Genauigkeitsbereich von ~50 µm (Translation) und ~0.13◦(Rotation) detektieren lassen. Mit den Positionsinformationen lassen sich MRT-Daten retrospektiv korrigieren oder idealerweise das Bildgebungsvolumen in Echtzeit anpassen um Inkonsistenzen in den Daten im Vorhinein vorzubeugen. Durch Bewegung beeinträchtigte in-vivo Daten konnten so mit der Methode korrigiert werden und anhand eines geeigneten Phantoms konnte die Verbesserung der Erkennung von Kanten, wie sie beispielsweise bei der dentalen Abformung angewandt wird, gezeigt werden. Die kontinuierlichen Entwicklungen in den Bereichen Hard-, Software und Algorithmik ermöglichen weitere hochauflösende Anwendungen. In Kapitel 9 sind die Ergebnisse einer Studie gezeigt, die sich mit der Analyse der Handbewegungen während einer Messung beschäftigt. Für eine hochauflösenden Darstellung der Handanatomie bei 7 T ist eine Unterbindung der Handbewegung sehr wichtig. Um ein geeignetes Design für eine Empfängerspule zu entwerfen, die Bewegungen der Hand unterbindet, wurde eine qualitative Bewegungsanalyse der Hand in mehreren verschiedenen Positionen durchgeführt. Durch Vergleich der Ergebnisse konnte so auf geeignete Designs zurückgeschlossen werden.
Entwicklung klinischer Methoden zur Quantifizierung der longitudinalen Relaxationszeit T1 in der MRT
(2014)
Die Aufgabenstellung in der vorliegenden Arbeit bestand in der Entwicklung und Umsetzung neuer T1-Quantifizierungsverfahren, die zuverlässig in der klinischen Routine angewendet werden können. Die ausgearbeiteten Techniken umfassten dabei zwei Hauptarbeitsschwerpunkte.
Zum einen die Implementierung einer neuartigen dynamischen T1- Thermometriemethode für MR-Sicherheitsuntersuchungen medizinischer Geräte und Implantate, wie beispielsweise Kathetern oder Herzschrittmachern, und zum anderen die Entwicklung eines robusten kardialen T1-Mapping-Verfahrens, welches auch bei stärker erkrankten Patienten mit eingeschränkter Atemanhaltefähigkeit stabil anwendbar ist.
Mit der entwickelten kombinierten Heiz- und T1-Thermometriesequenz konnte ein neues Verfahren präsentiert werden, mit dem ein zu untersuchendes medizinisches Gerät oder Implantat kontrolliert erwärmt und die Temperaturänderung zeitgleich präzise erfasst werden kann. Dabei war es möglich, die HF-induzierte Erwärmung der metallischen Beispielimplantate sowohl in homogenem Gel als auch in inhomogenem Muskelgewebe exakt und ortsaufgelöst zu quantifizieren. Die MR-technisch errechneten Temperaturwerte zeigten dabei eine sehr gute Übereinstimmung zu den ermittelten Referenzwerten mit einer Temperaturabweichung von meist weniger als 1K. Die Ergebnisse zeigen, dass es mit der präsentierten Methode möglich ist, die räumliche Temperaturverteilung in einem großen Bereich mit einer einzigen Messung quantitativ zu erfassen. Dies ist neben der Nichtinvasivität der Methode der größte Vorteil im Vergleich zu der Einzelpunktmessung mittels eines bei solchen Messungen sonst zumeist verwendeten fluoroptischen Temperatursensors. Bei gestreckten Implantaten kann demnach idealerweise das gesamte Objekt während einer einzigen Messung auf potentielle Temperaturänderungen oder sogenannte Hotspots untersucht werden, was bei der Verwendung von Temperatursensoren lediglich mit großem Zeitaufwand möglich ist, da hier die Temperatur jeweils nur punktuell erfasst werden kann. Im Vergleich zu anderen publizierten MR-Thermometrieverfahren, welche auf der PRF-Technik basieren, bietet die hier präsentierte Methode vor allem den Vorteil, dass hiermit auch eine präzise Temperaturquantifizierung in inhomogenem biologischem Gewebe mit starken Suszeptibilitätsunterschieden wie beispielsweise zwischen Herz und Lunge möglich ist. Somit stellt die Methode ein leistungsstarkes Hilfsmittel für nicht-invasive MR-Sicherheitsuntersuchungen nicht nur an medizinischen Implantaten sondern beispielsweise auch für MR-geführte Interventionen dar.
Mit der entwickelten kardialen T1-Mapping-Sequenz TRASSI wurde eine leistungsstarke Methode zur exakten und hoch aufgelösten Generierung kardialer T1-Karten in äußerst kurzer Messzeit (< 6 s) vorgestellt. Durch ihre außerordentliche Robustheit sowohl gegenüber Bildartefakten als auch Herzrhythmusstörungen während der Datenakquisition bietet die Sequenz deutlich verbesserte Möglichkeiten für die Diagnostik verschiedener Herzerkrankungen. Aufgrund der sehr kurzen Akquisitionszeit wird insbesondere auch die Generierung von T1-Karten bei schwer erkrankten Patienten mit kurzer Atemanhaltefähigkeit ermöglicht. Im Vergleich zu derzeit üblicherweise verwendeten alternativen Verfahren wie etwa MOLLI, konnten die T1-Karten mit vergleichbarer Bildauflösung in bis zu 70% kürzerer Messzeit akquiriert werden. Die Ergebnisse der durchgeführten Phantommessungen belegen außerdem, dass die Methode exaktere T1-Werte liefert als dies beispielsweise mit MOLLI möglich ist. Des Weiteren weist TRASSI im Gegensatz zu MOLLI keine T1-Abhängigkeit von der Herzrate auf, wodurch die vorgestellte Technik besonders für diagnostische Studien geeignet ist, welche eine sehr hohe Genauigkeit und Reproduzierbarkeit im Zeitverlauf oder zwischen verschiedenen Patienten erfordern.
Mit TRASSI konnten die Strukturen des Herzens bei den durchgeführten in vivo Untersuchungen durchweg mit scharfen Kanten und ohne Bewegungsartefakte dargestellt werden. Dabei wurde unabhängig von der Herzrate und der Bildebene stets eine sehr gute Bildqualität erreicht. Der Hauptgrund hierfür ist vermutlich in der sehr kurzen Akquisitionszeit und der radialen Datenaufnahme zu sehen. Beide Verfahren reduzieren Artefakte aufgrund von Bewegungen wie beispielsweise Herzschlag und Atmung erheblich. Die aufgenommenen T1-Karten zeigen bei allen Probanden und Patienten eine gute diagnostische Bildqualität. So konnten auch die infarzierten Bereiche bei Patienten mit Myokardinfarkt deutlich visualisiert und quantitativ erfasst werden. Nochmals hervorzuheben ist die beobachtete besondere Robustheit der TRASSI Methode gegenüber
Artefakten beziehungsweise T1-Quantifizierungsfehlern bei Patienten mit Herzrhythmusstörungen. Auch bei untersuchten Patienten mit starken Arrhythmien während der Bildgebung konnte eine sehr gute Bildqualität und Genauigkeit der errechneten T1-Karten erreicht werden. Die Ergebnisse der Extrazellularvolumen-Quantifizierung zeigen zudem, dass mittels TRASSI auch weiterführende diagnostische Methoden entwickelt und angewandt werden können. Dabei konnten durch Rückrechnung hochaufgelöster und präziser Extrazellularvolumen-Karten beispielsweise Infarktbereiche deutlich visualisiert und signifikante Unterschiede zwischen akut und chronisch infarziertem Herzmuskelgewebe nicht nur identifiziert sondern auch quantitativ charakterisiert werden. Somit ist diese Methode insbesondere für eine potentielle Differenzierung zwischen reversibel und irreversibel geschädigten Herzarealen interessant.
Für die Zukunft ist es wünschenswert, weitergehende Untersuchungen an verschiedenen spezifischen Herzerkrankungen vorzunehmen. Zu solchen Erkrankungen gehören beispielsweise die Herzmuskelentzündung (Myokarditis) oder Herzklappenerkrankungen. Diese Krankheitsbilder sind hinsichtlich einer möglichen transienten oder permanenten Schädigung des Herzmuskels mit den bisher verfügbaren Verfahren nur sehr schwer oder lediglich im weit fortgeschrittenen Stadium exakt diagnostizierbar. Die vorgestellte TRASSI-Sequenz bietet hier eine gute Möglichkeit für eine frühzeitige Erkennung der Auswirkungen solcher Erkrankungen auf den Herzmuskel. Weiterführende Untersuchungen der TRASSI-Methode zu deren Robustheit gegenüber spezifischen Herzrhythmusstörungen und ein umfassender Vergleich zum bereits etablierten MOLLI-Verfahren könnten darüber hinaus die Alltagstauglichkeit von TRASSI weiter spezifizieren und den Weg in die klinische Routine ebnen. Die bereits dargelegten positiven Ergebnisse des Verfahrens lassen vermuten, dass TRASSI potentiell ein sehr gutes nicht-invasives Diagnoseverfahren für verschiedenste Herzerkrankungen darstellt. Im Vergleich zu bereits bestehenden Techniken liegen die Vorteile der TRASSI-Methode nach den bisher vorliegenden Ergebnissen zusammenfassend vor allem in der Generierung diagnostisch verlässlicherer T1-Werte bei gleichzeitig verringerter Messzeit, wodurch das Verfahren insbesondere auch für schwer erkrankte Patienten mit starken Arrhythmien und eingeschränkter Atemanhaltefähigkeit geeignet ist.
TRASSI ist darüber hinaus aber auch für MR-Untersuchungen im Hochfeld besser geeignet als entsprechende bSSFP-basierende Verfahren wie beispielsweise MOLLI. Dies liegt vor allem daran, dass TRASSI eine Gradientenecho-basierte Bildgebungsmethode ist und somit eine niedrige spezifische Absorptionsrate aufweist. Zudem sind Gradientenecho-Sequenzen allgemein weniger empfindlich gegenüber Suszeptibilitätsartefakten, so dass beispielsweise metallische Implantate bei Patienten sich weniger störend auf die erreichbare Bildqualität auswirken.
In der vorliegenden Arbeit wurde sowohl eine exakte T1-Thermometriesequenz als auch eine sehr schnelle und präzise kardiale T1-Mapping-Methode vorgestellt. Für zukünftige Arbeiten ist es wünschenswert, beide Sequenzen bzw. deren Mechanismen zu vereinen und eine Temperaturquantifizierung am Herzen praktisch durchzuführen. Dies wäre zum einen für MR-Sicherheitsuntersuchungen von Schrittmacherelektroden in vivo vorteilhaft, und zum anderen wäre hiermit eine direkte Erfolgskontrolle während einer Katheterablation realisierbar. Eine solche Ablationsbehandlung könnte durch eine genaue Lokalisierung des behandelten - also erhitzten - Herzareals sehr viel präziser durchgeführt werden, wodurch auch bei komplexeren Ablationen die Behandlungserfolge erhöht werden könnten. In einer ersten Veröffentlichung hierzu konnte bereits gezeigt werden, dass eine MR-gestützte Katheterablation die Heilungs- und Erfolgsaussichten des Eingriffes steigern kann. Dieses Verfahren könnte potentiell mit Hilfe einer Echtzeittemperaturüberwachung basierend auf dem TRASSI-Verfahren noch weiter verbessert werden.
In Zusammenfassung wurden in dieser Arbeit zwei neue T1-Quantifizierungsverfahren entwickelt und vorgestellt, die voraussichtlich zuverlässig im klinischen Alltag angewendet werden können und neue nicht-invasive diagnostische Möglichkeiten eröffnen. Die implementierten Sequenzen ermöglichen dabei zum einen eine exakte Temperaturquantifizierung und zum anderen ein präzises kardiales T1-Mapping. Beide Verfahren versprechen dabei robuste und reproduzierbare Ergebnisse und könnten in Zukunft den Weg in die klinische Routine finden und so bei einer fundierten Diagnostik verschiedenster Herzerkrankungen behilflich sein.
Ziel dieser Arbeit war es, das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung mittels der MRT darzustellen. Um trotz der niedrigen Protonendichte der Lunge und der geforderten hohen Auflösung ausreichend Signal für eine verlässliche Diagnostik zu erhalten, sind Aufnahmezeiten von einigen Minuten nötig. Um die Untersuchung für den Patienten angenehmer zu gestalten oder auf Grund der eingeschränkten Fähigkeit eines Atemstopps überhaupt erst zu ermöglichen, war eine Anforderung, die Aufnahmen in freier Atmung durchzuführen. Dadurch entstehen allerdings Bewegungsartefakte, die die Diagnostik stark beeinträchtigen
und daher möglichst vermieden werden müssen. Für eine Bewegungskompensation
der Daten muss die auftretende Atembewegung detektiert werden. Die Bewegungsdetektion
kann durch externe Messgeräte (Atemgurt oder Spirometer) oder durch eine
zusätzliche Anregungen erfolgen (konventionelle Navigatoren) erfolgen. Nachteile
dieser Methoden bestehen darin, dass die Bewegung während der Atmung nicht
direkt verfolgt wird, dass elektronische Messgeräte in die Nähe des Tomographen
gebracht werden und das die Patienten zusätzlich vorbereitet und eingeschränkt
werden. Des Weiteren erfordert eine zusätzliche Anregung extra Messzeit und kann
unter Umständen die Magnetisierung auf unterwünschte Weise beeinflussen.
Um die angesprochenen Schwierigkeiten der Bewegungsdetektion zu umgehen,
wurden in dieser Arbeit innerhalb einer Anregung einer 3d FLASH-Sequenz sowohl
Bilddaten- als auch Navigatordaten aufgenommen. Als Navigator diente dabei das
nach der Rephasierung aller bildgebenden Gradienten entstehende Signal (DC Signal).
Das DC Signal entspricht dabei der Summe aller Signale, die mit einem bestimmten
Spulenelement detektiert werden können. Bewegt sich beispielsweise die Leber
bedingt durch die Atmung in den Sensitivitätsbereich eines Spulenelementes, wird
ein stärkeres DC Signal detektiert werden. Je nach Positionierung auf dem Körper
kann so die Atembewegung mit einzelnen räumlich lokalisierten Spulenelementen
nachverfolgt werden. Am DC Signalverlauf des für die Bewegungskorrektur ausgewählten
Spulenelementes sind dann periodische Signalschwankungen zu erkennen.
Zusätzlich können aus dem Verlauf Expirations- von Inspirationszuständen unterschieden
werden, da sich Endexpirationszustände im Regelfall durch eine längere
Verweildauer auszeichnen.
Grundsätzlich kann das DC Signal vor oder nach der eigentlichen Datenaufnahme
innerhalb einer Anregung aufgenommen werden. Auf Grund der kurzen Relaxationszeit
T∗2 des Lungengewebes fällt das Signal nach der RF Anregung sehr schnell ab. Um
möglichst viel Signal zu erhalten sollten, wie in dieser Arbeit gezeigt wurde, innerhalb einer Anregung zuerst die Bilddaten und danach die Navigatordaten aufgenommen
werden. Dieser Ansatz führt zu einer Verkürzung der Echozeit TE um 0.3 ms und
damit zu einem SNR Gewinn von etwa 20 %. Gleichzeitig ist das verbleibende Signal
nach der Datenakquisition und Rephasierung der bildgebenden Gradienten noch
ausreichend um die Atembewegung zu erfassen und somit eine Bewegungskorrektur
der Daten (Navigation) zu ermöglichen.
Um eine retrospektive Bewegungskorrektur durchführen zu können, müssen Akzeptanzbedingungen
(Schwellenwerte) für die Datenauswahl festgelegt werden. Bei
der Wahl des Schwellenwertes ist darauf zu achten, dass weder zu wenige noch zu
viele Daten akzeptiert werden. Akzeptiert man sehr wenige Daten, zeichnen sich die
Rekonstruktionen durch einen scharfen Übergang zwischen Lunge und Diaphragma
aus, da man sehr wenig Bewegung in den Rekonstruktionen erlaubt. Gleichzeitig
erhöht sich allerdings das Risiko, dass nach der Navigation Linien fehlen. Dies führt
zu Einfaltungsartefakten, die in Form von gestörten Bildintensitäten in den Rekonstruktionen
zu sehen sind und die diagnostische Aussagekraft einschränken. Um
Einfaltungsartefakte zu vermeiden sollte der Schwellenwert so gewählt werden, dass
nach der Datenauswahl keine Linien fehlen. Aus dieser Anforderung lässt sich ein
maximaler Schwellenwert ableiten. Akzeptiert man dagegen sehr viele Daten, zeichnen
sich die Rekonstruktionen durch erhöhtes Signal und das vermehrte Auftreten
von Bewegungsartefakten aus. In diesem Fall müsste der Arzt entscheiden, ob Bewegungsartefakte
die Diagnostik zu stark beeinflussen. Wählt man den Schwellenwert
so, dass weder Linien fehlen noch zu viel Bewegung erlaubt wird, erhält man Rekonstruktionen
die sich durch einen scharfen Diaphragmaübergang auszeichnen und in
denen noch kleinste Gefäße auch in der Nähe des Diaphragmas deutlich zu erkennen
sind. Hierfür haben sich Schwellenwerte, die zu einer Datenakzeptanz von ca. 40 %
führen als günstig erwiesen.
Um Einfaltungsartefakte auf Grund der retrospektiven Datenauswahl zu verhindern,
muss das Bildgebungsvolumen mehrfach abgetastet werden. Dadurch wird
gewährleistet, dass für die letztendliche Rekonstruktion ausreichend Daten zur Verfügung
stehen, wobei mehrfach akzeptierte Daten gemittelt werden. Dies spielt auf
Grund der niedrigen Protonendichte der Lunge eine wesentliche Rolle in der Rekonstruktion
hochaufgelöster Lungendatensätze. Weiterhin führt das Mitteln von
mehrfach akzeptierten Daten zu einer Unterdrückung der sogenannten Ghost Artefakte,
was am Beispiel der Herzbewegung in der Arbeit gezeigt wird.
Da die Messungen unter freier Atmung durchgeführt werden und keine zusätzlichen
externen Messgeräte angeschlossen werden müssen, stellte die Untersuchung
für die Patienten in dieser Arbeit kein Problem dar. Im ersten Teil dieser wurde Arbeit
gezeigt, dass sich mit Hilfe des DC Signales als Navigator und einer retrospektiven
Datenauswahl das gesamte Lungenvolumen in hoher dreidimensionaler Auflösung
von beispielsweise 1.6 x 1.6 x 4 mm3 innerhalb von 13 min. darstellen lässt. Die Anwendbarkeit der vorgestellten Methode zur Bewegungskorrektur wurde neben
Probanden auch an Patienten demonstriert.
Da wie bereits beschrieben das Bildgebungsvolumen mehrfach abgetastet werden
muss, wiederholt sich auch die Abfolge der für die Bildgebung verantwortlichen
Gradienten periodisch. Da sich der Atemzyklus aber auch periodisch wiederholt,
kann es zu Korrelationen zwischen der Atmung und den wiederholten Messungen
kommen. Dies führt dazu, dass auch nach vielen wiederholten Messungen immer
noch größere Bereiche fehlender Linien im k-Raum bleiben, was zu Artefakten in
den Rekonstruktionen führt. Dies konnte im Falle der konventionellen Bewegungskorrektur
in den Gatingmasken, die die Verteilung und Häufigkeit der einzelnen
akzeptierten Phasenkodierschritte im k-Raum zeigen, beobachtet werden.
Da eine vorsätzliche Unterbrechung der Atemperiodizität (der Patient wird dazu
angehalten, seine Atemfrequenz während der Messung absichtlich zu variieren) zur
Vermeidung der angesprochenen Korrelationen nicht in Frage kommt, musste die
Periodizität in der Datenaufnahme unterbrochen werden. In dieser Arbeit wurde
dies durch eine quasizufällige Auswahl von Phasen- und Partitionskodiergradienten
erreicht, da Quasizufallszahlen so generiert werden, dass sie unabhängig von ihrer
Anzahl einen Raum möglichst gleichförmig ausfüllen. Die quasizufällige Datenaufnahme
führt deshalb dazu, das sowohl akzeptierte als auch fehlende Linien nach der
Bewegungskorrektur homogen im k-Raum verteilt auftreten.
Vergleicht man das auftreten von Ghosting zeichnen sich die quasizufälligen Rekonstruktionen
im Vergleich zur konventionellen Datenaufnahme durch eine verbesserte
Reduktion von Ghost Artefakten aus. Dies ist auf die homogene Verteilung mehrfach
akzeptierter Linien im k-Raum zurückzuführen. Die homogenere Verteilung von
fehlenden Linien im k-Raum führt weiterhin zu einer wesentlich stabileren Rekonstruktion
fehlender Linien mit parallelen MRT-Verfahren (z.B. iterativem Grappa).
Dies wird umso deutlicher je höher der Anteil fehlender Linien im k-Raum wird. Im
Falle der konventionellen Datenaufnahme werden die zusammenhängenden Bereiche
fehlender Linien immer größer, was eine erfolgreiche Rekonstruktion mit iterativem
Grappa unmöglich macht. Im Falle der quasizufälligen Datenaufnahme dagegen
können auch Datensätze in denen 40% der Linien fehlen einfaltungsartefaktfrei
rekonstruiert werden.
Im weiteren Verlauf der Arbeit wurde gezeigt, wie die Stabilität der iterativen Grappa
Rekonstruktion im Falle der quasizufälligen Datenaufnahme für eine erhebliche
Reduktion der gesamten Messzeit genutzt werden kann. So ist in einer Messzeit von
nur 74s die Rekonstruktion eines artefaktfreien und bewegungskorrigierten dreidimensionalen
Datensatzes der menschlichen Lunge mit einer Auflösung von 2 x 2 x
5 mm3 möglich. Des Weiteren erlaubt die quasizufällige Datenaufnahme in Kombination
mit iterativem Grappa die Rekonstruktion von Datensätzen unterschiedlicher
Atemphasen von Inspiration bis Expiration (4D Bildgebung). Nach einer Messzeit
von 15min. wurden 19 unterschiedliche Atemzustände rekonstruiert, wobei sich der Anteil der fehlenden Linien zwischen 0 und 20 % lag. Im Falle der konventionellen
Datenaufnahme wäre eine wesentlich längere Messzeit nötig gewesen, um ähnliche
Ergebnisse zu erhalten.
Zum Schluss soll noch ein Ausblick über mögliche Weiterentwicklungen und Anwendungsmöglichkeiten,
die sich aus den Erkenntnissen dieser Arbeit ergeben haben,
gegeben werden. So könnte das quasizufällige Aufnahmeschema um eine Dichtegewichtung
erweitert werden. Hierbei würde der zentrale k-Raum Bereich etwas
häufiger als die peripheren Bereiche akquiriert werden. Dadurch sollte die iterative
Grappa Rekonstruktion noch stabiler funktionieren und Ghost Artefakte besser reduziert
werden. Die Verteilung der Linien sollte allerdings nicht zu inhomogen werden,
um größere Lücken im k-Raum zu vermeiden.
Darüber hinaus könnte die vorgestellte Methode der Bewegungskompensation
auch für die Untersuchung anderer Organe oder Körperteile verwendet werden.
Voraussetzung wäre lediglich das Vorhandensein dezidierter Spulenanordnungen,
mit denen die Bewegung nachverfolgt werden kann. So ist beispielsweise eine dynamische
Bildgebung des frei und aktiv bewegten Knies möglich, wobei zwischen
Beugung und Streckung durch die erste Ableitung des zentralen k-Raum Signales
unterschieden werden kann. Dies kann zusätzliche Diagnoseinformationen liefern
oder für Verlaufskontrollen nach Operationen benutzt werden [15].
Eine Weiterentwicklung mit hohem klinischen Potential könnte die Kombination
der in dieser Arbeit vorgestellten retrospektiven Bewegungskorrektur mit einer Multi-
Gradienten-Echo Sequenz darstellen. Hierzu musste die bestehende Sequenz lediglich
um eine mehrfache Abfolge von Auslesegradienten innerhalb einer Anregung erweitert
werden. Dies ermöglicht eine bewegungskorrigierte voxelweise Bestimmung der
transversalen Relaxationszeit T∗2 in hoher räumlicher Auflösung. Unter zusätzlicher
Sauerstoffgabe kann es zu einer Veränderung von T∗2 kommen, die auf den sogenannten
BOLD Effekt (Blood Oxygen Level Dependent) zurückzuführen ist. Aus dieser
Änderung könnten Rückschlüsse auf hypoxische Tumorareale gezogen werden. Da
diese eine erhöhte Strahlenresistenz aufweisen, könnte auf diese Bereiche innerhalb
des Tumors eine erhöhte Strahlendosis appliziert und so möglicherweise Behandlungsmisserfolge
reduziert werden. Gleichzeitig kann durch die 4D Bildgebung eine
mögliche Tumorbewegung durch die Atmung erfasst und diese Information ebenfalls
in der Bestrahlungsplanung benutzt werden. Die Lungen MRT könnte somit um eine
hochaufgelöste dreidimensionale funktionelle Bildgebung erweitert werden.
Das Ziel der Promotion war die Entwicklung eines Flusssensors mit dem Fokus auf Flussmessungen an Pflanzen. Dazu musste zunächst die Hardware in Form eines räumlich zugänglichen Magneten und einer Sende- und Empfangseinheit entworfen werden. Um die MR-Konsole ansteuern zu können, musste eine Software entwickelt werden. Die AC-Methode wurde für Flussmessungen mit niedrigen Geschwindigkeiten angepasst und die entsprechende Theorie dazu erweitert. Mit dieser weiterentwickelten AC-Methode wurde die Flussmessung an Pflanzen demonstriert. Dafür wurden im Rahmen einer Kooperation mit der Arbeitsgruppe „Lipid Motobolism“ der IPK-Gatersleben Flussstudien an Weizenpflanzen durchgeführt. Darüber hinaus wurde in dieser Arbeit eine neue Technik zur Wirbelstromvermeidung bei Permanentmagneten entwickelt, um Problemen mit diesen bei Flussmessungen entgegenzuwirken.
Sensorbau
Es wurde ein zugänglicher, mobiler Magnet mit einer Feldstärke von 0,42 T gebaut. Die Feldhomogenität beträgt 0,5 ppm in 1 cm³. Im Vergleich zu dem am Lehrstuhl der EP5 bestehenden, geschlossenen, mobilen Magnetsystem erreicht das in dieser Arbeit gebaute System ein 40fach homogeneres Magnetfeld. Erzielt wurden diese Verbesserungen durch ein spezielles Design, welches durch Computersimulationen sukzessiv optimiert wurde. Durch angepasste Polschuhe konnte darüber hinaus die Induktion von Wirbelströmen im Mittel um einen Faktor 7 reduziert werden, wodurch phasensensitive Flussmessungen ermöglicht wurden.
Um die Zugänglichkeit zu dem Innenraum der HF-Spulen zu gewährleisten, wurde eine Klappspule weiterentwickelt und als Sende- und Empfangseinheit für den Tomographen gebaut. Ferner wurde ein System gebaut, dass direkt um die Pflanze gewickelt werden kann und sich somit für besonders dünne Pflanzenstängel eignet.
Weiterhin wurden zwei Systeme zur Rauschunterdrückung für die Messungen an Pflanzen entwickelt. Dadurch konnte das Rauschen um einen Faktor 92 gesenkt werden. Dies war notwendig, weil die länglichen Pflanzen durch ihre Ausdehnung über das Gehäuse hinweg ein Rauschen in die Empfangsspule induziert haben. Die beiden Rauschunterdrückungssysteme, die elektrische Schirmung und die Gleichtaktunterdrückung, entfernten das Rauschen dabei gleichermaßen.
Flussmessung
Die im Rahmen der Arbeit erfolgte Weiterentwicklung der AC-Methode [102] erlaubte es erstmals mit der Methode quantitative Flussprofile aufzunehmen. In Folge dessen war es
außerdem möglich Geschwindigkeiten unter 200 µm/s zu messen. Die Vorrausetzung dafür war die Implementierung von trapezförmigen Gradienten, welche kürzere Rampzeiten und eine stärkere Kodierung zulassen. Dadurch sind außerdem Intervalle ohne Gradienten realisierbar, die effizientere Refokussierungspulse und die Aufnahme mehrerer Datenpunkte ermöglichen. Die zu erwartenden und simulierten Flussprofile entsprachen den gemessenen Profilen durch die Verwendung einer neuen Auswertungstechnik.
Die neu entwickelte Erweiterung zur Bildgebung ermöglicht die ortsaufgelöste, spektroskopische Flussmessung und so können die Bereiche von Xylem und Phloem voneinander getrennt werden. Dies wurde durch Messungen einer Schwarzerle gezeigt, bei der die im Abschnitt 5.1 beschriebene Struktur dikotyler Pflanzen aufgelöst werden konnte. Zusätzlich können qualitativ genauere Aussagen über die Flussgeschwindigkeit getroffen werden.
Bei Messungen an Pflanzen konnte mit der optimierten AC-Methode die Flussänderungen aufgrund äußerer Einflüsse, wie der Beleuchtung, beobachtet werden. Langzeitmessungen über 9 Tage zeigten einen der Beleuchtung folgenden Flussverlauf - auch bei sehr geringen mittleren Flussänderungen von unter 200 µm/s.
Bloch-Siegert Phasenkodierung
Um eine Phasenkodierung ohne die Induktion von Wirbelströmen zu erhalten, wurde im Rahmen der Arbeit die ortsabhängige Phasenkodierung mittels B1-Gradienten entwickelt. Diese Technik basiert auf HF-Wechselfeldern und benutzt den sogenannten BS-Shift um einen B1-feldabhängigen Frequenzshift zu induzieren. Zwei Rekonstruktionstechniken wurden entwickelt, um die Rekonstruktion von entzerrten Bildern zu ermöglichen. Dies war notwendig, da die Kodierung mittels BS-Shift von B1² abhängt. Infolgedessen wird bei der Verwendung von konstanten HF-Gradienten eine vom Quadrat des Ortes abhängige Phasenkodierung induziert. Als Alternative zu diesem Verfahren wurde ein Gradient entwickelt, der einen wurzelförmigen Feldverlauf hat und somit die lineare Kodierung ohne angepasste Rekonstruktionstechniken ermöglicht.
Magnetic Particle Imaging (MPI) ist eine noch sehr junge Technologie unter den nicht-invasiven tomographischen Verfahren. Seit der ersten Veröffentlichung 2005 wurden einige Scannertypen und Konzepte vorgestellt, welche durch die Messung des Antwortsignals von superparamagnetischen Eisennanopartikeln (SPIOs) auf wechselnde Magnetfelder ein dreidi-mensionales Bild ihrer Verteilung berechnen können. Durch die direkte Messung des Tracers handelt es sich beim MPI um eine sehr sensitive und hochspezifische bildgebende Methode.
Zu Beginn dieser Forschungsarbeit gab es nur wenige bekannte MPI-Scanner, die jedoch alle ein nur kleines Field-of-View (FOV) vorweisen konnten. Der Grund dafür liegt in der Ver-wendung von Permanentmagneten.
Das Ziel war es nun, ein neues Konzept auszuarbeiten und einen 3D-MPI-Scanner zu entwer-fen, der in der Lage ist, ein mausgroßes Objekt zu messen.
In dieser Arbeit wird ein alternatives Scannerkonzept für die dreidimensionale Bildge-bung superparamagnetischer Eisennanopartikel vorgestellt. Der Traveling Wave MPI-Scanner (TWMPI) basiert auf einem neu entwickelten Hauptspulensystem, welches aus mehreren Elektromagneten besteht. Dadurch ist die Hardware bereits in der Lage, eine Linie entlang der Symmetrieachse über einen großen Bereich dynamisch zu kodieren. Mit Hilfe weiterer Ab-lenkspulen kann schließlich ein FOV von 65 x 25 x 25 Millimetern dreidimensional abgetastet werden. Dazu stehen mehrere Scanverfahren zur Verfügung, welche das Probenvolumen li-nienweise oder ebenenweise abtasten und mit einer Auflösung von ca. 2 Millimetern die Ver-teilung der SPIOs in wenigen Millisekunden abbilden können.
Mit diesem neuen Hardwareansatz konnte erstmals ein MPI-Scanner mit einem MR-Tomographen (MRT) kombiniert werden. Das MPI/MRT-Hybridsystem liefert tomographi-sche Bilder des Gewebes (MRT) und zeigt die Verteilung des eisenhaltigen Kontrastmittels (MPI), ohne die Probe bewegen zu müssen.
In einer in-vivo Echtzeitmessung konnte der TWMPI-Scanner mit 20 Bildern pro Se-kunde die dynamische Verteilung eines eisenhaltigen Kontrastmittels im Körper und speziell im schlagenden Herzen eines Tieres darstellen. Diese Echtzeitfähigkeit eröffnet in der kardi-ovaskuläre Bildgebung neue Möglichkeiten.
Erste Messungen mit funktionalisierten Eisenpartikeln zeigen die spezifische Bildge-bung verschiedener Zelltypen und stellen einen interessanten Aspekt für die molekulare Bild-gebung dar. Die Sensitivität des Scanners liegt dabei im Bereich von wenigen Mikrogramm Eisen pro Milliliter, was für den Nachweis von wenigen 10.000 mit Eisen markierten Zellen ausreicht.
Neben Messungen an diversen Ferrofluiden und eisenhaltigen Kontrastmitteln konnte der Einfluss von massiven Materialen, wie Eisenstückchen oder Eisenspänen, auf die rekon-struierten Bilder untersucht werden.
Erste Messungen an Gestein zeigen die Verteilung von Eiseneinschlüssen und bieten die Möglichkeit einer weiteren zerstörungsfreien Untersuchungsmethode für Materialwissen-schaftler und Geologen. Weiterführende Testmessungen mit einer unabhängigen μMPI-Anlage zeigen erste Ergebnisse mit Auflösungen im Mikrometerbereich und liefern Erkennt-nisse für den Umgang und Messung mit starken Gradientenfeldern.
Eine Modifizierung der Messanlage erlaubt es, in gerade einmal 500 μs ein komplettes Bild aufzunehmen, womit die Bewegung eines Ferrofluidtropfens in Wasser sichtbar gemacht werden konnte. Damit ist diese TWMPI-Anlage das schnellste MPI-System und eröffnet die Möglichkeit grundlegende Erfahrungen in der Partikeldynamik zu erlangen.
Der vorgestellte Traveling Wave MPI-Scanner ist ein alternativer Scannertyp, welcher sich von anderen MPI-Scannern abhebt. Mit neuen Ansätzen ist in der Lage ein mausgroßes Objekt auf dynamische Weise sehr schnell abzutasten. Dabei konnten in verschiedenen Mes-sungen die Funktionalität und Leistungsfähigkeit des TWMPI-Konzeptes demonstriert wer-den, welche die gesteckten Ziele deutlich übertreffen.
The subject of this work was to develop, implement, optimize and apply methods for quantitative MR imaging of tumors. In the context of functional and physiological characterization, this implied transferring techniques established in tumor model research to human subjects and assessing their feasibility for use in patients. In the context of the morphologic assessment and parameter imaging of tumors, novel concepts and techniques were developed, which facilitated the simultaneous quantification of multiple MR parameters, the generation of “synthetic” MR images with various contrasts, and the fast single-shot acquisition of purely T2-weighted images.
In dieser Arbeit werden für die Anwendung in der menschlichen Lunge
optimierte Methoden zur Bestimmung von T1- und T2*-Karten diskutiert:
Dc-Gating ermöglicht die Quantifizierung in freier Atmung, wobei für die
T1-Quantifizierung mittels Inversion Recovery eine Korrektur des dc-Signals
entwickelt wurde. Dies hat den Vorteil, dass Parameterkarten aus mehreren
Messungen anhand ihrer dc-Signale passend überlagert werden können. Da T1
und T2* auf unterschiedliche Art und Weise von der Sauerstoffkonzentration
abhängen, verbessert dies die Möglichkeit, ΔT1- und ΔT2*- Differenzkarten aus
Messungen mit unterschiedlichen O2-Konzentrationen im Atemgas zu erstellen.
Die Parameterquantifizierung ist in erster Linie für die Beobachtung von
Krankheitsverläufen interessant, da T1 und T2* absolute, vergleichbare Zahlen
sind. Da T2* deutlich vom Atemzustand abhängt, ist es auch hierfür sinnvoll,
durch Gating identische Atemzustände abzubilden. Um die unterschiedlichen
Einflüsse des Sauerstoffs auf T1 und T2* besser vergleichbar zu machen, wurde
in dieser Arbeit weiterhin eine kombinierte Messung für beide Parameter
implementiert: Da auch diese in freier Atmung stattfindet, profitieren nicht
nur die Differenzkarten von der Überlagerung der Bilder, sondern auch der
Vergleich der ΔT1- und ΔT2*-Karten untereinander.
Messungen mit einer konventionellen kartesischen Methode an COPD-Patienten
unter Raumluft- und 100% Sauerstoffatmung ergaben bei Verwendung identischer
Atemmasken ein deutlich geringeres ΔT1 als in gesunden Probanden. Dass T1 in
der Lunge nicht nur von der Sauerstoffkonzentration sondern auch von der
Gewebezusammensetzung und insbesondere auch dem Blutvolumenanteil abhängt,
zeigte sich hierbei aber auch an den bei COPD im Mittel sehr viel kürzeren
T1-Zeiten bei Raumluft. Die aufgrund emphysematischer Veränderung noch
zusätzlich reduzierte Protonendichte im Parenchym kranker Lungen macht diese
Messungen allerdings besonders schwierig.
Die oben erwähnten Optimierungen der T1-Quantifizierung zielen daher auch
darauf ab, das Signal aus der Lunge zu maximieren, um Patientenmessungen
einfacher zu machen: Messungen in freier Atmung sind für Patienten nicht nur
einfacher, sondern erlauben effektiv auch längere Messzeiten. Insbesondere
wurde aber durch die Entwicklung einer radialen Methode die Echozeit zur
Messung reduziert, um die kurze T2*-Zeit in der Lunge auszugleichen.
Schließlich wurde durch Implementation einer 2D UTE Sequenz die Messung bei
der kürzesten vom Scanner erlaubten Echozeit ermöglicht.
Die Messungen bei ultrakurzen Echozeiten in Probanden zeigten allerdings
deutlich kürzere T1-Zeiten als die zuvor gefundenen oder in der Literatur
dokumentierten. In weiteren Experimenten wurde das sichtbare T1 zu mehreren
Echozeiten mit Hilfe der zur kombinierten Quantifizierung entwickelten
Methode bestimmt. Dabei ergab sich eine Zunahme des gemessenen T1 mit der
Echozeit. Aus diesem Verhalten sowie den gefundenen kürzesten und längsten T1
lässt sich schließen, dass das intra- und extravaskuläre Lungenwasser, also
Blut bzw. das umgebende Gewebe, mit unterschiedlichen T1- und T2*-Zeiten zum
Signal und damit auch dem effektiven T1 beitragen.
Dass das TE der Messung die Gewichtung dieser Kompartimente bestimmt, hat
dabei mehrere Auswirkungen: Einerseits bedeutet dies, dass beim Vergleich von
T1-Messungen in der Lunge stets auch das TE mitbetrachtet werden muss, bei
dem diese durchgeführt wurden. Andererseits lässt sich die Möglichkeit, die
Messung auf die unterschiedlichen Kompartimente abzustimmen, potentiell
ausnutzen, um zusätzliche diagnostische Informationen zu gewinnen: Da T1 vom
Blutvolumenanteil und der Gewebezusammensetzung abhängt, könnte dieser Effekt
helfen, diese beiden Einflüsse zu differenzieren.
Während die in dieser Arbeit beschriebenen Experimente die TE-Abhängigkeit
des sichtbaren T1 in Probanden aufzeigen, liefern sie allerdings noch keine
genaue Erklärung für die möglichen Ursprünge dieses Effekts. Um diese weiter
zu untersuchen, könnten allerdings gezielte Phantom- und in vivo-Experimente
Aufschluss geben: Ein Aufbau, der die Feldverzerrung durch luftgefüllte
Alveolen in Lösungen mit entsprechenden verschiedenen Suszeptibilitäten
nachbildet, reduziert den Unterschied zwischen den Kompartimenten auf T1 und
χ. Eine in vivo-Messung mit möglichst großer Differenz zwischen Ex- und
Inspiration hingegen könnte den Einfluss der Abstände der Kompartimente vom
Gasraum aufzeigen, da die Alveolarwände in tiefer Inspiration am weitesten
gedehnt und daher am dünnsten sind.
Magnetic resonance imaging is derogated by the presence of metal implants and image quality is impaired. Artifacts are categorized according to their sources, the differences in susceptibility between metal and tissue and the modulation of the magnetic radiofrequency (RF) transmit field. Generally, these artifacts are intensified at higher field strength. The purpose of this work is to analyze the efficiency of current methods used for metal artifact reduction at 3T and to investigate improvements. The impact of high-bandwidth RF pulses on susceptibility-induced artifacts is tested. In addition, the benefit of a two-channel transmit system with respect to shading close to total hip replacements and other elongated metal structures in parallel to the magnetic field is analyzed.
Local transmit/receive coils feature a higher peak B1 amplitude than conventional body coils and thus enable high-bandwidth RF pulses. Susceptibility-induced through-plane distortion relates reciprocally to the RF bandwidth, which is evaluated in vitro for a total knee arthroplasty. Clinically relevant sequences (TSE and SEMAC) with conventional and high RF pulse bandwidths and different contrasts are tested on eight patients with different types of knee implants. Distortion is rated by two radiologists. An additional analysis assesses the capability of a local spine transmit coil. Furthermore, B1 effects close to elongated metal structures are described by an analytical model comprising a water cylinder and a metal rod, which is verified numerically and experimentally. The dependence of the optimal polarization of the transmit B1 field, creating minimum shading, on the position of the metal is analyzed. In addition, the optimal polarization is determined for two patients; its benefit compared to circular polarization is assessed.
Phantom experiments confirm the relation of the RF bandwidth and the through-plane distortion, which can be reduced by up to 79% by exploitation of a commercial local transmit/receive knee coil at 3T. On average, artifacts are rated “hardly visible” for patients with joint arthroplasties, when high-bandwidth RF pulses and SEMAC are used, and for patients with titanium fixtures, when high-bandwidth RF pulses are used in combination with TSE. The benefits of the local spine transmit coil are less compared to the knee coil, but enable a bandwidth 3.9 times as high as the body coil. The modulation of B1 due to metal is approximated well by the model presented and the position of the metal has strong influence on this effect. The optimal polarization can mitigate shading substantially.
In conclusion, through-plane distortion and related artifacts can be reduced significantly by the application of high-bandwidth RF pulses by local transmit coils at 3T. Parallel transmission offers an option to substantially reduce shading close to long metal structures aligned with the magnetic field. Effective techniques dedicated for metal implant imaging at 3T are introduced in this work.
Messungen mit Magnetresonanztomographen sind seit jeher mit hohen Lautstärken verbunden. Deshalb wird das Gerät im Volksmund auch als „laute Röhre“ bezeichnet. Bisher wurde das Problem mit Kopfhörern, Ohrenstöpseln und akustischer Dämmung des MRT-Scanners angegangen. Auch in der Fachliteratur wird das Problem als gegeben angesehen und es werden kaum wissenschaftliche Lösungsansätze zur Lautstärkereduktion beschrieben.
Das Ziel der vorliegenden Arbeit war es, Bildgebungs-Sequenzen für schwer‑optimierbare Bildkontraste und sogenannte Standard-Kontraste aus dem klinischen Umfeld hinsichtlich der Lautstärke zu optimieren. Viele dieser Kontraste können bereits mit einfachen Algorithmen wie dem Gradientenglättungsalgorithmus erfolgreich in Hinblick auf die Lautstärke optimiert werden. Allerdings existieren auch Sequenzen beziehungsweise Kontraste, die aufgrund ihrer Eigenschaften nicht von einem solchen Algorithmus profitieren können. Die Optimierungen und Änderungen sollten software-seitig erfolgen, das heißt durch Änderung der Gradientenformen und Datenakquisition.
In der Arbeit wurden die grundlegenden Zusammenhänge zwischen den verwendeten Geräteparametern und der Lautstärke untersucht und zudem die physikalischen Ursachen der Lautstärkeentwicklung hergeleitet. Diese konnten anhand der Lorentz-Kräfte quantitativ beschrieben werden. Somit konnten die Hauptursachen der Lautstärkeentwicklung identifiziert werden. Diese sind abhängig von der Gradienten-Steig-Rate, aber auch von der Amplitude der Gradienten. Es konnte gezeigt werden, dass eine Minimierung dieser Gradientenparameter zu einer geringeren Lautstärkeentwicklung führt. Allerdings führt diese Minimierung in den meisten Fällen auch zu einer systematischen Verlangsamung des Sequenzablaufs, was das Erreichen bestimmter Echozeiten und Bildkontraste unmöglich macht.
Zu den problematischen Kontrasten bezüglich der Lautstärkereduktion zählten der T1- und PD‑Kontrast einer Turbo-Spin-Echo-Sequenz. Durch die Kombination von mehreren Maßnahmen, wie der Adaption der k-Raum-Akquisition, der HF-Pulse-Parameter und den Gradientenformen, war es möglich, die Lautstärke in Beispielmessungen um bis zu 16,8 dB(A) zu reduzieren. Wie bei der kürzlich veröffentlichten Methode zur Reduktion für die T2‑gewichteten Kontraste, wurde dies zulasten einer Messzeitverlängerung von bis zu 50% erreicht. Die Endlautstärke betrug dabei circa 81 dB(A). Mit der Lautstärkeoptimierung der klinisch bedeutsamen T1- und PD‑Kontraste wurde die Palette an leisen, mit der Turbo-Spin-Echo‑Sequenz erzielbaren, Standard-Kontrasten (T1, T2 und PD) nun vervollständigt.
In einem anderen Ansatz wurde die Anwendbarkeit des CAT-Konzepts auf die Lautstärkereduktion untersucht. Beim CAT-Konzept wird die Messung in Einzelmessungen mit verschiedenen Parametern unterteilt. Bisher wurde dieser Ansatz zur SAR-Reduktion verwendet. Das Zentrum des k-Raums wird mit einer SAR-intensiven, kontrastgebenden Messung aufgenommen. Der verbleibende Teil des k-Raums wird mit einer SAR-reduzierten, bildstrukturrelevanten Messung aufgenommen. In dieser Arbeit wurde die Übertragung des CAT-Konzepts auf die Lautstärkereduktion untersucht. Anstelle von SAR-intensiven und SAR‑reduzierten Messungen, wurde hier die Unterteilung in „laute“ und „leise“ Messungen untersucht. Dabei wurden Überlegungen angestellt, die es für eine Vielzahl an Messungen ermöglichen, einen großen Teil der Messung leise zu gestalten ohne die Bildqualität oder den Bildkontrast zu verändern. In einem weiteren Schritt wurden Überlegungen für die Lautstärkereduktion der lauten Messungen vorgestellt. Anschließend wurden für eine GRE- und TSE-Sequenz Optimierungsschritte evaluiert und die Lautstärke gemessen.
Der hinsichtlich der Lautstärkeoptimierung herausforderndste Bildkontrast ist die diffusionsgewichtete Bildgebung. Diese besitzt eine Diffusions-Präparation zur Sichtbarmachung der Diffusivität, bei der die maximal mögliche Gradienten-Amplitude verwendet wird. Ebenso werden nach der Präparation die Daten mit einem EPI‑Akquisitionsmodul mit Blip-Gradienten akquiriert, das mit einem charakteristischem „Pfeifton“ einhergeht. Zum einen wurden die Gradientenformen konsequent angepasst. Zum anderen wurde eine Segmentierung der k-Raum-Akquisition in Auslese-Richtung verwendet, um die Gradienten‑Steig-Raten zu reduzieren. Auch hier konnte eine deutliche Lautstärkereduktion von bis zu 20,0 dB(A) erzielt werden. Dies wurde zulasten einer Messzeitverlängerung von 27% ‑ 34% im Vergleich zur Standard-Sequenz erreicht. Durch eine weitere Messzeitverlängerung um bis zu 23% kann die Lautstärke um weitere 0,9 dB(A) reduziert werden. Dabei hängt die genaue Messzeitverlängerung vom verwendeten GRAPPA-Faktor und der Anzahl der Auslese-Segmente ab. Die entstandene Sequenz wurde in mehreren Kliniken erfolgreich erprobt.
Bisher mussten bei MRT-Messungen stets Kompromisse zwischen „hoher Auflösung“, „hohem SNR“ und „geringer Messzeit“ getroffen werden. Als Anschauung dafür wurde das „Bermuda‑Dreieck der MRT“ eingeführt. Da alle drei Größen sich gegenseitig ausschließen, muss stets ein Mittelweg gefunden werden. Einige der in dieser Arbeit erzielten Erfolge bei der Lautstärkereduktion wurden auf Kosten einer verlängerten Messzeit erreicht. Daher ist es naheliegend, das „Bermuda-Dreieck der MRT“ um die Dimension der „geringen Lautstärke“ zu einer „Bermuda-Pyramide der MRT“ zu erweitern. Damit muss die Lautstärkeentwicklung in die Mittelweg‑Findung miteinbezogen werden.
Die in dieser Arbeit erzielten Lautstärken liegen in der Größenordnung zwischen 80 ‑ 85 dB(A). Somit können Messungen bei Verwendung von Gehörschutz angenehm für den Patienten durchgeführt werden. Durch neue Techniken der Zukunft wird es wahrscheinlich sein, höhere Auflösungen, höheres SNR oder kürzere Aufnahmedauern zu erzielen, beziehungsweise stattdessen diese in eine geringe Lautstärke „umzuwandeln“.
Ebenso werden möglicherweise auf der hardware-technischen Seite Fortschritte erzielt werden, so dass in neueren MRT-Scannergenerationen mehr Wert auf die Lärmdämmung gelegt wird und somit der softwarebasierten Lautstärkereduktion einen Schritt entgegen gekommen wird. Damit könnten zukünftige Patienten-Messungen gänzlich ohne störenden Gehörschutz durchgeführt werden.
Diese Arbeit befasst sich mit der Konzeption, Umsetzung und Charakterisierung eines Rönt- genmikroskops für harte Röntgenstrahlung mit der Möglichkeit zur dreidimensionalen Bild- gebung. Der vorgestellte Aufbau basiert auf geometrischer Vergrößerung und verzichtet im Gegensatz zu anderen Röntgenmikroskopiemethoden auf den Einsatz optischer Elemente. Dreidimensionale Bildgebung wird durch einen linearlaminographischen Aufnahmemodus realisiert, bei dem unterschiedliche Durchstrahlungsrichtungen durch das Objekt durch eine relative Verschiebung von Quelle und Detektor zustande kommen. Die Röntgenquelle des Mikroskops besteht aus einer zu einer Nanofokusröntgenröhre um- gebauten Elektronenmikrosonde mit 30 kV Beschleunigungsspannung (dies entspricht einer Wellenlänge von bis zu 0,041 nm). Durch die Elektronenoptik kann ein intensiver Elektronen- strahl anstelle eine Probe auf ein Transmissionstarget fokussiert werden. In dieser Arbeit wird eine Möglichkeit evaluiert, die Schichtdicke der röntgenaktiven Schicht des Transmissionstar- gets für die gegebene Beschleunigungsspannung zu optimieren. Dabei werden eine Schichtdi- cke für maximale Röntgenleistung (700 nm Wolfram) und eine für maximale Röntgenleistung bezogen auf die entstehende Quellfleckgröße (100 nm Wolfram) identifiziert. Dadurch erreicht dieses System eine laterale Ortsauflösung von 197 nm, gemessen an einem Siemensstern. Diese ist eine Größenordnung besser als bei modernen SubμCT-Anlagen, die zur zerstörungsfrei- en Prüfung eingesetzt werden, und einen Faktor 2 besser als bei Laborröntgenmikroskopen basierend auf Fresnel’schen Zonenplatten. Abgesehen von der lateralen Auflösung bei hochkontrastigen Objekten werden auch die Abbil- dungseigenschaften für schwach absorbierende Proben mit Inline-Phasenkontrastbildgebung untersucht. Dazu wird eine Methode entwickelt mit der anhand der gegebenen Anlagenpara- meter der optimale Quell-Objekt-Abstand zur Maximierung des Fringe-Kontrasts gefunden werden kann. Dabei wird die Ausprägung des Fringe-Kontrasts auf die Phase −iα zurück geführt. Das vorgeschlagene Modell wird durch Messungen am Röntgenmikroskop und an einer weiteren Röngtenanlage verifiziert. Zur Beurteilung der dreidimensionalen Bildgebung mit dem vorgeschlagenen linearlaminogra- phischen Aufnahmemodus kann dieser auf eine konventionelle Computertomographie mit ein- geschränktem Winkelbereich zurückgeführt werden und so die maximal erreichbare Winkel- information bestimmt werden. Des Weiteren werden numerische Berechnungen durchgeführt, um die Einflüsse von Rauschen und geometrischen Vorgaben einschätzen zu können. Ein experimenteller Test des Laminographiesystems wird anhand eines hochkontrastigen (Fres- nel’sche Zonenplatte) und eines niederkontrastigen Objekts (Kohlefasergewebe) durchgeführt. Es zeigte sich, dass die laterale Auflösung während der dreidimensionalen Rekonstruktion gut erhalten bleibt, die Tiefenauflösung aber nicht die gleiche Qualität erreicht. Außerdem konnte festgestellt werden, dass die Tiefenauflösung sehr stark von der Geometrie und Zusammen- setzung des untersuchten Objekts abhängt.