Refine
Has Fulltext
- yes (226) (remove)
Is part of the Bibliography
- yes (226) (remove)
Year of publication
Document Type
- Doctoral Thesis (226)
Language
- German (226) (remove)
Keywords
- T-Lymphozyt (15)
- Tissue Engineering (10)
- Plasmozytom (8)
- Multiples Myelom (7)
- Angststörung (6)
- Maus (6)
- Therapie (6)
- Arteriosklerose (5)
- Dendritische Zelle (5)
- Herzinsuffizienz (5)
Institute
- Graduate School of Life Sciences (226) (remove)
Sonstige beteiligte Institutionen
- CBIO, University of Cape Town, South Africa (1)
- Comprehensive Heart Failure Center Wuerzburg (CHFC) (1)
- Fraunhofer Institute for Integrierte Schaltungen (IIS) (1)
- Hans-Knöll-Institut Jena (1)
- IZKF Research Laboratory Dept. Medicine II & Pediatrics (1)
- Lehrstuhl für Immunologie, Würzburg (1)
- Lehrstuhl für Physiologische Chemie (1)
- Microarray Core Unit, Universität Würzburg (1)
- Orthopädische Klinik König-Ludwig-Haus Würzburg (1)
- Translationale soziale Neurowissenschaften (1)
In dieser Arbeit wurde die Krankheitsprogression im Parkinson-Mausmodell hm2α-SYN-39 mit zunehmendem Alter charakterisiert. Die Mäuse wurden in 4 Altersgruppen (2-3, 7-8, 11-12, 16-17 Monate) mit motorischen Verhaltenstests auf einen Parkinson-Phänotyp untersucht. Zudem erfolgten Untersuchungen des dopaminergen Systems zur Detektion von neurochemischen Veränderungen und einer Neurodegeneration im nigrostriatalen Trakt. Weiterhin wurden neuroinflammatorische Prozesse des adaptiven und angeborenen IS in der SN und im Striatum mittels immunhistochemischer Färbungen beurteilt.
Ein Parkinson-Phänotyp in diesem Mausmodell zeigte sich nur leicht ausgeprägt, sodass der Rotarod- und Zylinder-Test lediglich den Hinweis auf eine nicht-signifikante Einschränkung der Motorik erbrachte. Dennoch ergab die stereologische Quantifizierung TH- und Nissl-positiver Zellen in der SNpc der hm2α-SYN-39 Mäuse eine altersabhängige, signifikant-progrediente Reduktion der dopaminergen Neurone mit zunehmendem Alter. Eine signifikant niedrigere TH-positive Zellzahl dieser tg Mäuse zeigte sich ab einem Alter von 16-17 Monaten verglichen zu gleichaltrigen wt Tieren. Dagegen war die Neurodegeneration im Striatum etwas weniger ausgeprägt. Die tg Mäuse präsentierten im Alter von 16-17 Monaten eine nicht-signifikante Erniedrigung der dopaminergen Terminalen verglichen zu gleichaltrigen wt Tieren. Ein DA-Mangel im Striatum der tg Mäuse konnte mittels HPLC bestätigt werden. Bis zum Alter von 16-17 Monaten wurde eine signifikante Reduktion der DA-Level von 23,2 % verglichen zu gleichaltrigen wt Mäusen gezeigt. Außerdem erniedrigt waren die striatalen Level von NA und 5-HAT bei tg Mäusen, passend zu den bisherigen Ergebnissen bei Parkinson-Patienten.
Immunhistochemische Untersuchungen einer Neuroinflammation im nigrostriatalen Trakt ergaben eine tendenziell erhöhte Infiltration von CD4- und CD8-positiven T-Zellen bei hm2α-SYN-39 Mäusen mit zunehmendem Alter, wobei die Infiltration CD8-positiver Zellen ausgeprägter war als bei CD4-positiven Zellen. Eine noch deutlichere neuroinflammatorische Reaktion zeigte das angeborene IS. Hierbei ergab die immunhistologische Quantifizierung CD11b-positiver mikroglialer Zellen einen hochsignifikanten Anstieg im nigrostriatalen Trakt bei hm2α-SYN-39 Mäusen schon im jungen Alter.
Zusammenfassend präsentierte dieses Parkinson-Mausmodell eine langsam-progrediente Parkinson-Pathologie mit begleitender Neuroinflammation im nigrostriatalen Trakt während des Alterns, wobei die Immunantwort der mikroglialen Zellen zu einem früheren Zeitpunkt einsetzte als die T-Zellinfiltration und Neurodegeneration. Dieses Mausmodell bietet zahlreiche Möglichkeiten zur zukünftigen Erforschung der Pathophysiologie beim MP. Generell weist diese Arbeit auf eine bedeutende Rolle neuroinflammatorischer Prozesse in der Krankheitsprogression der Parkinsonerkrankung hin und soll dazu ermutigen Neuroinflammation durchaus intensiver in tg Tiermodellen zu untersuchen.
Das ANP/GC-A-System spielt durch die Produktion des sekundären Botenstoffs cGMP eine wichtige Rolle bei der Regulation des Blutdruckes und des Blutvolumens. Bei Patienten mit Herzhypertrophie oder Herzinsuffizienz sind die ANP-Plasmakonzentrationen erhöht, aber die GC-A-vermittelten Effekte stark reduziert, was auf einen Defekt des Signalsystems hinweist. Studien an metabolisch markierten GC-A-überexprimierenden HEK 293-Zellen zeigten, dass der GC-A-Rezeptor im basalen Zustand stark phosphoryliert und die homologe bzw. heterologe Desensitisierung wahrscheinlich mit einer Dephosphorylierung verbunden ist. Die Desensitisierung stellt einen Mechanismus dar, der in vivo zu einem Funktionsverlust des Rezeptors beitragen könnte. Im Rahmen dieser Arbeit konnten mittels Massenspektrometrie sieben Phosphorylierungsstellen in der Kinasehomologen Domäne aus FLAG-GC-A exprimierenden HEK 293-Zellen detektiert werden: Ser487, Ser497, Thr500, Ser502, Ser506, Ser510 und Thr513. Die massenspektrometrische relative Quantifizierung basierend auf der Multiple-Reaction-Monitoring (MRM)-Methode zeigte bei ANP-induzierter, homologer Desensitisierung eine Dephosphorylierung der Phosphorylierungsstellen Ser497, Thr500, Ser502, Ser506, Ser510 und Thr513, was mit bereits publizierten Daten übereinstimmt, und einen starken Anstieg der Phosphorylierung an Ser487. Nach Inkubation mit Angiotensin II, welches eine heterologe Desensitisierung hervorruft, wurde eine Reduzierung aller Phosphorylierungen verzeichnet, die zudem stärker ausgeprägt war als bei der ANP-abhängigen Desensitisierung. Die Funktion der neu identifizierten Phosphorylierung an Ser487 wurde mittels Mutagenese analysiert. Die Substitution des Serins durch Alanin, welche den unphosphorylierten Zustand nachstellt, resultierte in einer Rezeptoraktivität und desensitisierung vergleichbar zum GC-A Wildtyp-Rezeptor. Wurde hingegen Serin gegen Glutamat getauscht, um den phosphorylierten Zustand zu imitieren, konnte der Rezeptor weder aktiviert noch desensitisiert werden. Diese Ergebnisse bestätigen vorherige Studien, dass die GC-A-Rezeptorantwort auf ANP durch die Phosphorylierungen reguliert wird. Allerdings scheint bei der homologen Desensitisierung die Phosphorylierung an der Position Ser487 eine Rolle zu spielen, da sie die Aktivität des Rezeptors inhibiert. Die Identifizierung und Charakterisierung dieser Phosphorylierungsstelle trägt zum Verständnis des Mechanismus der homologen Desensitierung bei. Zusätzlich konnten einige der beschriebenen Phosphorylierungen in Zellsystemen detektiert werden, die die GC-A endogen exprimieren. Dadurch sind unter physiologischen Bedingungen Analysen der Mechanismen möglich, die bei der Aktivierung und Deaktivierung der GC-A involviert sind und somit wichtige pathophysiologische Konsequenzen haben können.
Während der letzten Jahrzehnte ist eine steigende Inzidenz von Infektionen durch Pilze der Ordnung Mucorales zu beobachten. Rhizopus arrhizus ist der häufigste Erreger dieser lebensbedrohlichen Infektionen, die vor allem immunsupprimierte Patienten betreffen. Aufgrund der oft schwierigen Diagnosestellung und limitierter therapeutischer Optionen liegt derzeit die Letalität von Mucormykosen zwischen 50 bis 100 %. Eine Voraussetzung für die Etablierung neuer Biomarker oder immuntherapeutischer Strategien ist ein verbessertes Verständnis der immunpathologischen Prozesse bei der Abwehr von Mucorales.
In dieser Arbeit wurden daher verschiedene Immunzellpopulationen durch ruhende und ausgekeimte Stadien von R. arrhizus stimuliert und anschließend deren proinflammatorische Immunantwort gemessen. Als Vergleich diente die proinflammatorische Immunantwort der untersuchten Immunzellen nach Stimulation mit Aspergillus fumigatus. Darüber hinaus war es Gegenstand dieser Arbeit, zu charakterisieren welche Pattern Recognition Receptors (PRRs) an der Erkennung von Mucorales durch verschiedene innate Immunzellen beteiligt sind. Zugleich wurde untersucht, ob unterschiedliche Morphotypen der Pilzspezies Auswirkungen auf die Stimulation der jeweiligen PRRs haben. Hierfür wurden Koinkubations-Experimente mit neutrophilen Granulozyten sowie Peripheral Blood Mononuclear Cells (PBMCs), Monozyten und monocyte derived dendritic cells (moDCs) mit verschiedenen Morphotypen von R. arrhizus durchgeführt. Die Rezeptoren TLR2, TLR4 und/oder Dectin-1 wurden dabei durch neutralisierende Antikörper oder RNA-Interferenz blockiert.
Ausgekeimte Stadien von A. fumigatus sowie R. arrhizus induzierten eine erhöhte ROS-Freisetzung in Neutrophilen, die durch isolierte oder kombinierte Blockade von TLR2, TLR4 und Dectin-1 abgeschwächt wurde. Ebenso wurde die Phagozytoseaktivität neutrophiler Granulozyten gegenüber R. arrhizus-Konidien durch Blockade von TLR4 und Dectin-1 deutlich reduziert.
Im Gegensatz zu A. fumigatus induzierten sowohl ruhende Konidien als auch ausgekeimte Stadien (Keimschläuche und Hyphen) von R. arrhizus eine robuste pro-inflammatorische Zytokinantwort durch moDCs. Nach Inhibition der Dectin-1 Expression durch RNA-Interferenz zeigte sich die Transkription und Sekretion von Interleukin-1β in Gegenwart aller drei untersuchten Morphotypen von
R. arrhizus deutlich vermindert (Transkription um 46 bis 68 % und Sekretion um 75 bis 79 % vermindert). Diese Ergebnisse legen nahe, dass Dectin-1 ein wichtiger Mediator bei der Einleitung der innaten Immunantwort verschiedener Zelltypen gegen R. arrhizus ist. Diese Beobachtung sollte in weiteren Studien eingehender untersucht werden, z. B. um die Eignung von Dectin-1 als Rezeptor für zelltherapeutische Ansätze wie T-Zell-Konstrukte mit chimären Antigen-Rezeptoren zu evaluieren.
Die Fähigkeit sich an die Rotation der Erde und den daraus resultierenden Tag- und Nacht-Rhythmus anzupassen, basiert auf einer komplexen Regulation verschiedener physiologischer Prozesse. Auf molekularer Ebene liegt diesen Prozessen eine Orchestration von Uhr-Genen zugrunde – auch als innere Uhr bezeichnet – die einen aktivierenden bzw. reprimierenden Einfluss auf die Expression einer Vielzahl weiterer Gene hat. Ausgehend von dieser Regulation lassen sich auf unterschiedlichsten Ebenen tageszeitabhängige, wiederkehrende Rhythmen beobachten.
Während diese wiederkehrenden Rhythmen auf einigen Ebenen bereits gut erforscht und beschrieben sind, gibt es weitere Ebenen wie den Metabolismus, über die das Wissen bisher noch begrenzt ist.
So handelt es sich bei Drosophila beispielsweise um den Organismus, dessen innere Uhr auf molekularer Ebene wahrscheinlich mit am besten charakterisiert ist. Dennoch ist bisher nur wenig über Stoffklassen bekannt, deren Metabolismus durch die innere Uhr kontrolliert wird.
Zwar konnte bereits gezeigt werden, dass sich eine gestörte innere Uhr auf die Anlage der Energiespeicher auswirkt, inwiefern dies allerdings einen Einfluss auf dem intermediären Stoffwechsel hat, blieb bisher weitgehend unerforscht. Auch die Frage, welche Metaboliten wiederkehrende, tageszeitabhängige Rhythmen aufweisen, wurde bisher nur für eine begrenzte Anzahl Metaboliten untersucht.
Bei der hier durchgeführten Arbeit wurden deshalb zunächst die globalen Metabolit-Profile von Fliegen mit einer auf molekularer Ebene gestörten inneren Uhr (per01) mit Fliegen, die über eine funktionale Uhr verfügen (CantonS), zu zwei Zeitpunkten verglichen. Um die Anzahl der zeitgleich untersuchten Gewebe und somit die Komplexität der Probe zu reduzieren, wurden hierfür die Köpfe von den Körpern der Fliegen getrennt und separat analysiert. Beide Körperteile wurden sowohl auf kleine hydrophile als auch auf hydrophobe Metaboliten hin mittels UPLC-ESI-qTOF-MS untersucht. Die anschließend durchgeführte, statistische Analyse brachte hervor, dass sich Unterschiede zwischen den beiden Fliegenlinien besonders in den Spiegeln der essentiellen Aminosäuren, den Kynureninen, den Pterinaten sowie den Spiegeln der Glycero(phospho)lipiden und Fettsäureester zeigten. Bei den Lipiden zeigte sich, dass die Auswirkungen weniger ausgeprägt für die Anlage der Speicher- und Strukturlipide als für die Intermediate des Lipidabbaus, die Diacylglycerole (DAGs) sowie die Acylcarnitine (ACs), waren.
Um zu bestätigen, dass die inneren Uhr tatsächlich einen regulatorischen Einfluss auf die ausgemachten Stoffwechselwege hat, wurden anschließend die Spiegel aller Mitglieder darauf hin untersucht, ob diese wiederkehrende, tageszeitabhängige Schwankungen aufweisen. Hierfür wurden Proben alle zwei Stunden über drei aufeinanderfolgende Tage genommen und analysiert, bevor mittels JTK_CYCLE eine statistische Analyse der Daten durchgeführt und die Metaboliten herausgefiltert wurden, die ein rhythmisches Verhalten bei einer Periodenlänge von 24h zeigten. Hierbei bestätigte sich, dass besonders die Mitglieder des intermediären Lipidmetablismus hiervon betroffen waren. So konnten zwar auch für einige Aminosäuren robuste Rhythmen ausgemacht werden, besonders ausgeprägt waren diese jedoch erneut bei den DAGs und den ACs. Die abschließende Untersuchung letzterer unter Freilaufbedingungen (DD) sowie in per01 brachte hervor, dass die ausgemachten Rhythmen unter diesen Bedingungen entweder nicht mehr detektiert werden konnten oder deutlich abgeschwächt vorlagen. Lediglich zwei kurzkettige ACs zeigten auch unter DD-Bedingungen statistisch signifikante Rhythmen in ihren Spiegeln. Dies spricht dafür, dass neben der Regulation durch die innere Uhr weitere Faktoren, wie beispielsweise das Licht, eine entscheidende Rolle zu spielen scheinen.
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
Schädel-Hirn Trauma ist die führende Ursache von Tod und Behinderung unter jungen Erwachsenen in den USA und Europa. Darüber hinaus steigert Schädel-Hirn Trauma das Risiko eine Demenzerkrankung oder andere neurodegenerative Erkrankung zu erleiden. Aus diesem Grund stellt eine bessere Erkenntnis der subakuten und chronischen pathophysiologischen Prozesse eine wichtige Grundlage für eine mögliche zukünftige neuroprotektive Therapie dar. Ziel dieser Arbeit war es daher eine Übersicht von funktionellen Einschränkungen und zellulären Veränderungen in der subakuten Phase innerhalb der ersten drei Monate darzustellen. Dazu wurden Verhaltensexperimente zu kognitiven Leistungen wie räumliches Lernen, kognitive Plastizität, episodisches Gedächtnis, Angstverhalten und allgemeine Lokomotion durchgeführt. Dabei konnten funktionale Einschränkungen der Tiere im Bereich der kognitiven Flexibilität, dem räumlichen Lernen, dem belohnungsmotivierten Verhalten, sowie Hyperaktivität beobachtet werden. Weiterführend erfolgten histologische und immunhistologische Untersuchungen an den Mäusegehirnen. So konnten in unserem Tiermodell sowohl lokale neuroinflammatorische Veränderungen nachgewiesen werden, also auch generalisierte Veränderungen, welche sich auf Isocortex und Hippocampus erstreckten und beide Hemisphären gleichermaßen betrafen. Ebenso konnten demyelinisierende Prozesse im Bereich der Läsion beobachtet werden. Im Bereich des Cortex zeigte sich außerdem eine axonale Schädigung mit begleitender Neuroinflammation, sowie eine Infiltration von B-Zellen. Anschließend wurde eruiert, ob eine Korrelation von funktionalem Outcome und histologischen Veränderungen besteht. Dabei zeigte sich eine signifikante Korrelation neuroinflammatorischer Prozesse mit Einschränkungen im räumlichen Lernen und Umlernen, sowie Auffälligkeiten im Bereich des belohnungsmotivierten Verhaltens. Damit ordnet sich diese Arbeit in die bestehenden Erkenntnisse zur Pathophysiologie des SHTs ein und ergänzt diese weiter.
Die MRT des Herzens wird aufgrund hoher Reproduzierbarkeit und geringer Variabilität als Referenzstandard für die Bestimmung der kardialen Funktion betrachtet. Auch in der präklinischen Forschung bietet die MRT eine ausgezeichnete Charakterisierung der kardialen Funktion und ermöglicht eine exzellente Analyse modellierter Krankheitsbilder. In beiden Fällen besteht jedoch weiterhin Optimierungsbedarf. Die klinische Herz-MRT stellt ein aufwendiges Verfahren mit relativ langer Messzeit dar und ist dadurch mit hohen Untersuchungskosten verbunden. In der präklinischen Kleintierbildgebung müssen zum Erreichen der notwendigen höheren Orts- und Zeitauflösung ebenfalls lange Aufnahmezeiten in Kauf genommen werden. Um die kardiale MRT dort routinemäßig in großen Studienkollektiven anwenden zu können, ist eine schnellere Bildgebung essentiell. Neben einer Verbesserung der Tomographen-Hardware und der Optimierung von Bildgebungssequenzen standen im letzten Jahrzehnt vermehrt informationstheoretische Ansätze zur Beschleunigung der MR-Datenakquisition im Fokus der Entwicklung. Während zu Beginn des Jahrtausends die Parallele Bildgebung (PI) einen Forschungsschwerpunkt repräsentierte, spielte sich in den letzten fünf Jahren vermehrt die von Donoho und Candès eingeführte Compressed Sensing (CS) Theorie in den Vordergrund. Diese ermöglicht eine Signalrekonstruktion aus unvollständig gemessenen Koeffizienten einer linearen Messung (z.B. Fouriermessung) unter Ausnutzung der Sparsität des Signals in einer beliebigen Transformationsbasis. Da sich die MRT hervorragend für den Einsatz von CS eignet, wurde die Technik in der Forschung bereits vielfach angewendet. Die zur Rekonstruktion unterabgetasteter Aufnahmen nötigen CS-Algorithmen haben jedoch eine signifikante Veränderung des Bildgebungsprozesses der MRT zur Folge. Konnte dieser zuvor in guter Näherung als linear und stationär betrachtet werden, so repräsentiert die CS-Rekonstruktion eine nichtlineare und nichtstationäre Transformation. Objektinformation wird nicht mehr ortsunabhängig und proportional zur Intensität in die Abbildung transportiert. Das Bild ist viel mehr das Ergebnis eines Optimierungsprozesses, der sowohl die Konsistenz gegenüber der unterabgetasteten Messung als auch die Sparsität des Signals maximiert. Der erste Teil dieser Dissertation beschreibt eine Methode, die eine objektive Einschätzung der Bildqualität CS-rekonstruierter MR-Bilder ermöglicht. Die CS-Beschleunigung verspricht eine Verkürzung der Messzeit ohne Verlust an Bildqualität, wobei letztere bisher größtenteils qualitativ bzw. quantitativ nur unzureichend beurteilt wurde. Konnte der Bildgebungsprozess der klassischen MRT (linear und stationär) durch die Bestimmung einer Punktspreizfunktion (PSF) robust und effektiv validiert und optimiert werden, erlauben die CS-Algorithmen aufgrund ihres nichtlinearen und nichtstationären Verhaltens ohne Weiteres keine äquivalente Analyse. Um dennoch eine entsprechende Evaluierung des CS-Bildgebungsprozesses zu ermöglichen, wurde die Anwendung einer lokalen Punktspreizfunktion (LPSF) für den in der Folge verwendeten Iterative Soft Thresholding Algorithmus untersucht. Die LPSF berücksichtigt die Ortsabhängigkeit der CS-Rekonstruktion und muss daher für jeden Ort (Pixel) eines Bildes bestimmt werden. Darüber hinaus wurde die LPSF im linearen Bereich der CS-Transformation ermittelt. Dazu wurde das zu bewertende Bild nach Anwenden einer kleinen lokalen Störung rekonstruiert. Die Breite des Hauptmaximums der LPSF wurde schließlich verwendet, um ortsaufgelöste Auflösungsstudien durchzuführen. Es wurde sowohl der Einfluss typischer Unterabtastschemata für CS als auch der Einsatz diskreter Gradienten zur Sparsifizierung eines Phantombildes untersucht. Anschließend wurde die Prozedur zur Bestimmung der räumlichen und zeitlichen Auflösung in der Herzbildgebung getestet. In allen Beispielen ermöglichte das vorgeschlagene Verfahren eine solide und objektive Analyse der Bildauflösung CS-rekonstruierter Aufnahmen. Wurde zuvor meist ausschließlich auf Vergleiche mit einer vollständig abgetasteten Referenz zur Qualitätsbeurteilung zurückgegriffen, so stellt die vorgestellte Auflösungsbestimmung einen Schritt in Richtung einer standardisierten Bildanalyse bei der Verwendung der Beschleunigung mittels CS dar. Die Analyse der Abtastmuster zeigte, dass auch bei der Anwendung von CS die Berücksichtigung der nominell höchsten Frequenzen k_max unerlässlich ist. Frühere Publikationen schlagen Abtastfolgen mit einer teils starken Gewichtung der Messpunkte zum k-Raum-Zentrum hin vor. Die Ergebnisse der vorliegenden Arbeit relativieren ein derartiges Vorgehen, da zumindest bei den durchgeführten Untersuchungen ein Auflösungsverlust bei analoger Vorgehensweise zu verzeichnen war. Ebenso zeigten sich dynamische Aufnahmen, die unter Verwendung des x-f-Raums als sparse Basis rekonstruiert wurden, durchaus anfällig für zeitliches Blurring. Dieses resultiert aus der Unterdrückung hoher zeitlicher Frequenzen und konnte durch die ortsaufgelösten Auflösungskarten sichtbar gemacht werden. Neben der Auflösung ist für eine umfassende Analyse der Bildqualität auch die Untersuchung potentieller Aliasing-Artefakte sowie des Signal-zu-Rausch-Verhältnisses (SNR) notwendig. Während Aliasing mit Hilfe der Einträge der LPSF außerhalb des Hauptmaximums untersucht werden kann, wurde in Kap. 5 eine Modifikation der Multi-Replika-Methode von Robson et al. zur Rauschanalyse bei Verwendung nichtlinearer Algorithmen vorgestellt. Unter Einbeziehung aller genannten Qualitätsparameter ist eine robuste Bewertung der Bildqualität auch bei einer Verwendung von CS möglich. Die differenzierte Evaluierung ebnet den Weg hin zu einem objektiven Vergleich neuer Entwicklungen mit bisherigen Standard-Techniken und kann dadurch den Einzug von CS in die klinische Anwendung vorantreiben. Nach den theoretischen Betrachtungen der Bildqualität behandelt die Dissertation die erstmalige Anwendung von CS zur Beschleunigung der funktionellen Herzdiagnostik in der präklinischen MR-Kleintierbildgebung. Diese Studien wurden in Zusammenarbeit mit der British Heart Foundation Experimental Magnetic Resonance Unit (BMRU) der University of Oxford durchgeführt. Die Algorithmen für eine Beschleunigung mittels der CS-Theorie wurden anhand der dort am 9,4T Tomographen gemessenen (unterabgetasteten) Datensätze entwickelt und optimiert. Zunächst wurde eine Beschleunigung ausschließlich mittels CS untersucht. Dazu wurde die segmentierte, EKG- und Atemgetriggerte kartesische Cine-Aufnahme in Phasenkodierrichtung unterabgetastet und mittels CS rekonstruiert. Die sparse Darstellung wurde durch Ermitteln zeitlicher Differenzbilder für jede Herzphase erhalten. Durch Variation der Abtastmuster in der zeitlichen Dimension konnte ein vollständig abgetastetes zeitliches Mittelbild bestimmt werden, das anschließend von jedem einzelnen Herzphasenbild subtrahiert wurde. In einer Validierungsphase wurden an der Maus vollständig aufgenommene Cine-Akquisitionen retrospektiv unterabgetastet, um die maximal mögliche Beschleunigung mittels CS zu ermitteln. Es wurden u.a. funktionelle Herz-Parameter für jede Gruppe des jeweiligen Beschleunigungsfaktors bestimmt und mittels einer statistischen Analyse verglichen. Die Gesamtheit aller Ergebnisse zeigte die Möglichkeit einer dreifachen Beschleunigung ohne eine Degradierung der Genauigkeit der Methode auf. Die ermittelte Maximalbeschleunigung wurde in einer unterabgetastet gemessenen Bilderserie mit anschließender CS-Rekonstruktion validiert. Die Abtastschemata wurden dazu mit Hilfe der Transformations-Punktspreizfunktion weiter optimiert. In einer Erweiterung der Studie wurde zum Zweck einer noch höheren Beschleunigung die CS-Technik mit der PI kombiniert. Erneut fand eine Unterabtastung der Phasenkodierrichtung einer kartesischen Trajektorie statt. Die Messungen erfolgten mit einer 8-Kanal-Mäusespule an einem 9,4T Tomographen. Um das Potential beider Beschleunigungstechniken auszunutzen, wurden die Methoden CS und PI in serieller Weise implementiert. Für die PI-Beschleunigung wurde der vollständig abgetastete k-Raum zunächst gleichmäßig unterabgetastet. Auf dem resultierenden Untergitter wurde zusätzlich eine Unterabtastung nach Pseudo-Zufallszahlen durchgeführt, um eine Beschleunigung mittels CS zu ermöglichen. Die entwickelte Rekonstruktion erfolgte ebenfalls seriell. Zunächst wurde mittels CS das äquidistante Untergitter rekonstruiert, um anschließend mittels GRAPPA die noch fehlenden Daten zu berechnen. Um eine zusätzliche Messung zur Kalibrierung der GRAPPA-Faktoren zu umgehen, wurde das äquidistant unterabgetastete Untergitter von Herzphase zu Herzphase um je einen Phasenkodierschritt weitergeschoben. Dieses Vorgehen erlaubt die Ermittlung eines vollständig abgetasteten k-Raums mit einer geringeren zeitlichen Auflösung, der die notwendige Bestimmung der Wichtungsfaktoren ermöglicht. Folgende Kombinationen von Beschleunigungsfaktoren wurden mittels retrospektiver Unterabtastung eines vollständig aufgenommenen Datensatzes untersucht: R_CS x R_PI = 2 x 2, 2 x 3, 3 x 2 und 3 x 3. Die Analyse des Bildrauschens, des systematischen Fehlers und der Auflösung führte zu dem Schluss, dass eine sechsfache Beschleunigung mit Hilfe der hybriden Rekonstruktionstechnik möglich ist. Während mit steigender CS-Beschleunigung der systematische Fehler leicht anstieg, führte ein höherer PI-Beschleunigungsfaktor zu einer leichten Verstärkung des statistischen Fehlers. Der statistische Fehler zeigte jedoch ebenfalls eine Verringerung bei steigender Beschleunigung mittels CS. Die Fehler waren allerdings stets auf einem Niveau, das durchaus auch Beschleunigungen bis R_CS x R_PI =3 x 3 zulässt. Die LPSF-Analyse zeigte einen Verlust der räumlichen Auflösung von ca. 50 % bei R=6 sowie einen mittleren Verlust von 64 % bei R=9. Offensichtlich ging die ebenfalls beobachtete Minimierung des Bildrauschens durch den CS-Algorithmus im Falle der relativ stark verrauschten Kleintieraufnahmen zu Lasten der Bildauflösung. Die mit zunehmender Beschleunigung stärker geblurrten Grenzen zwischen Blutpool und Myokardgewebe erschweren die Segmentierung und stellen eine mögliche Fehlerquelle dar. Unter Beachtung aller Ergebnisse ist eine sechsfache Beschleunigung (R_CS x R_PI = 2 x 3, 3 x 2) vertretbar. Die Hinzunahme der PI ermöglicht somit im Vergleich zur alleinigen Verwendung von CS eine weitere Beschleunigung um einen Faktor von zwei. Zusammenfassend ermöglicht der Einsatz von CS in der präklinischen funktionellen Herzbildgebung am Kleintier eine deutliche Reduktion der Messzeit. Bereits ohne Vorhandensein von Mehrkanalspulen kann die notwendige Datenmenge ohne signifikante Beeinflussung der Messergebnisse auf ein Drittel reduziert werden. Ist der Einsatz von Spulenarrays möglich, kann die mit PI mögliche dreifache Beschleunigung um einen weiteren Faktor zwei mittels CS auf R=6 erweitert werden. Dementsprechend kann CS einen wesentlichen Beitrag dazu leisten, dass das Potential Herz-MRT am Kleintier in großen Studienkollektiven effektiver abgerufen werden kann. Im letzten Teil der Arbeit wurde eine Technik für die funktionelle klinische MR-Herzbildgebung entwickelt. Hier wurde eine Beschleunigung mittels CS verwendet, um die Aufnahme des gesamten Herzens innerhalb eines Atemstillstandes des Patienten zu ermöglichen. Bei der derzeitigen Standardmethode werden üblicherweise 10-15 2D-Schichten des Herzens akquiriert, wobei jede einzelne Aufnahme einen Atemstillstand des Patienten erfordert. Für die notwendige Beschleunigung wurde eine unterabgetastete 3D-Trajektorie verwendet. Durch Phasenkodierung einer Richtung sowie radiale Projektionen in den beiden anderen Dimensionen konnte eine effiziente Aufnahme unterhalb des Nyquist-Kriteriums erreicht werden. Die Sparsifizierung erfolgte, wie bereits in der beschriebenen präklinischen Anwendung, durch die Subtraktion eines zeitlichen Mittelbildes. In einer Simulation anhand eines retrospektiv unterabgetasteten Datensatzes konnte die theoretische Funktionalität der Rekonstruktionstechnik bei einer Beschleunigung bezüglich der Nyquist-Abtastung von R ~ 10 validiert werden. Die Unterschiede zum vollständig abgetasteten Datensatz waren vernachlässigbar klein, so dass die vorgeschlagene Abtastfolge am Tomographen implementiert wurde. Mit dieser Sequenz wurde anschließend eine funktionelle Bilderserie an einem gesunden Probanden mit vollständiger Herzabdeckung innerhalb eines Atemstopps aufgenommen. Fehlende Daten wurden analog zur Simulation mit Hilfe des vorgeschlagenen Algorithmus rekonstruiert. Im Vergleich zur Simulation ergaben sich aufgrund des Schichtprofils der 3D-Slab-Anregung zusätzliche Aliasing-Artefakte in den äußeren Partitionen. Die für radiale Aufnahmen typischen Streifenartefakte waren im rekonstruierten Bild, wenn auch mit sehr geringer Amplitude, noch erkennbar. Davon abgesehen wurde die Dynamik jedoch über das gesamte Herz hinweg gut dargestellt. Der hohe Kontrast zwischen Myokard und Blutpool bescheinigt den Bildern eine hervorragende Eignung für die Bestimmung funktioneller Herzparameter mittels einer Segmentierung. Zusammengefasst erlaubt die entwickelte Methode aufgrund der drastischen Reduktion der notwendigen Atemstopps des Patienten einen deutlich erhöhten Patientenkomfort sowie einen schnelleren Durchsatz aufgrund der verkürzten Messzeit.
Durch die Verwendung radioaktiver Substanzen mit ihrer schädigenden Wirkung auf den menschlichen Körper besteht in der Positronen-Emissions-Tomographie (PET) ein fortwährendes Interesse an der Reduktion der applizierten Dosis bei gleichbleibender Qualität der Ergebnisse. Zusätzlich ist im Hinblick auf die Wirtschaftlichkeit der Systeme eine Reduktion sowohl der Akquisitions- als auch der Rekonstruktionszeit erstrebenswert. In dieser Arbeit werden zwei Möglichkeiten vorgestellt, diese Ziele durch den Einsatz von Compressed Sensing (CS) zu erreichen.
Neben der Entwicklung neuartiger Rekonstruktionsalgorithmen können Filtertechniken eingesetzt werden, um eine qualitative Verbesserung rekonstruierter Bilder zu erzielen. Der Vorteil eines Filters besteht unter anderem darin, dass diese retrospektiv angewandt werden können. Es ist folglich möglich, die Qualität eines Bildes zu überprüfen und lediglich im Bedarfsfall einen Filter einzusetzen.
Die Technik des CS war in den letzten Jahren Gegenstand zahlreicher Forschungsarbeiten im Bereich der Bildgebung, insbesondere in der Magnetresonanztomographie und der Computertomographie (CT). Mit CS könnten bildgebende Verfahren wie die CT oder die PET mit weniger Messungen durchgeführt werden, wodurch sich die Messzeit und die Strahlenexposition reduziert. In der molekularen Bildgebung mit der PET ist CS jedoch weitgehend unbekannt.
Im ersten Teil dieser Dissertation wird eine Methode vorgestellt, welche CS als Filtertechnik in der PET einsetzt. Den Ausgangspunkt stellt ein vollständiger, analytisch rekonstruierter Datensatz dar. Dieser wird mit einer Reihe unterschiedlicher Abtastmuster retrospektiv unterabgetastet und jeweils erneut, unter Verwendung von CS rekonstruiert. Im rauschfreien Fall würde CS stets das Originalbild liefern. Das überlagerte Rauschen führt jedoch zu Artefakten und einer Verschlechterung des Ergebnisses. CS kann nun einerseits das Rauschen vermindern. Andererseits ist es durch die Mittelung mehrerer unterschiedlicher Rekonstruktionen möglich, die Artefakte zu reduzieren. Auf diesem Weg kann die Bildqualität signifikant verbessert werden. Es konnte gezeigt werden, dass die Technik sowohl für 2D, als auch für 3D Datensätze verwendet werden kann. Die größten qualitativen Verbesserungen werden erzielt, wenn der Datensatz lediglich aus wenigen Ereignissen besteht. In diesem Fall ist die Bildqualität der analytischen Rekonstruktionen extrem schlecht, die Verbesserung durch die Filtertechnik mit CS und die damit verbundene Erhöhung des Signal-Rausch-Verhältnisses jedoch am größten. Bei diesen Datensätzen können die Ergebnisse iterativer Rekonstruktionen übertroffen werden. In der Praxis wäre damit ein Einsatz speziell bei dynamischen oder getriggerten Aufnahmen denkbar. In beiden Fällen basieren die Rekonstruktionen nicht selten auf wenigen Ereignissen. Die resultierenden Bilder sind häufig von schlechter Qualität, womit eine Verbesserung durch Filterung sinnvoll ist.
Der zweite Teil dieser Arbeit beschäftigt sich mit der Rohdaten-basierten Triggerung am Kleintier-PET sowie mit dem Einsatz von CS zur Reduktion der Rekonstruktionszeit. Frühere Veröffentlichungen zeigten bereits die Anwendbarkeit Rohdaten-basierter Triggermethoden bei humanen Datensätzen. Im Hinblick auf eine präklinische Anwendung, speziell bei Datensätzen mit dem Fokus auf Mäuseherzen, existieren jedoch nur wenige Studien. In dieser Arbeit wird gezeigt, dass die segmentierte Methode des Massenschwerpunkts (COMseg) eine Technik darstellt, welche die kardiale Triggerung sowohl bei Datensätzen von Ratten, als auch von Mäusen erlaubt.
Ein nicht zu unterschätzender Nachteil der COMseg besteht darin, dass vor deren Anwendung die List-Mode Datei in kleine Zeitframes unterteilt und in Sinogramme sortiert werden muss. Auf jedes Sinogramm wird im Anschluss ein Rebinning Algorithmus angewandt. Dies stellt einen enormen Zeitaufwand dar, wodurch sich eine Anwendung bei größeren Studien in der Praxis als schwierig erweist. Ziel der Triggermethoden ist die Gewinnung eines Triggersignals, durch welches beispielsweise der Herzschlag in mehrere Phasen aufgeteilt werden kann. Das Triggersignal hat für gewöhnlich eine dünnbesetzte Repräsentation im Frequenzraum. Dieses Vorwissen ermöglicht den Einsatz von CS. Anstelle des vollständigen Datensatzes wurde lediglich ein Teil der Daten in kleine Zeitframes sortiert und mit der COMseg ausgewertet. Aus diesem unterabgetasteten Datensatz wird mit Hilfe von CS das vollständige Triggersignal rekonstruiert. Die Stärke der Unterabtastung entspricht in etwa dem Faktor der Reduktion der Rekonstruktionszeit. Auf diesem Weg ist es möglich, eine signifikante Beschleunigung zu erzielen. Die Anwendung dieser Technik ist jedoch nicht auf die COMseg beschränkt. Prinzipiell kann das Verfahren bei allen Methoden der Rohdaten-basierten Triggerung angewandt werden, welche es erlauben, die Abtastpunkte des Signals separat zu berechnen. Damit werden Algorithmen interessant, deren Einsatz aufgrund aufwändiger Berechnungen bislang in der Praxis nicht sinnvoll war.
Zusammenfassend legen die in dieser Arbeit vorgestellten Daten nahe, dass CS ein neuartiges Werkzeug in der PET darstellen könnte, mit welchem eine Filterung von Bildern sowie eine Reduktion der Rekonstruktionszeit möglich ist.
Bei der Multiplen Sklerose (MS) handelt es sich um eine Autoimmunerkrankung des zentralen Nervensystems (ZNS). Abhängig von der betroffenen ZNS-Region kann es zu vielfältigen Symptomen kommen. Neben neurologischen Symptomen verursacht durch ZNS-Läsionen leidet ein Großteil der MS-Patienten auch unter gastrointestinalen Funktionsstörungen. Diese gastrointestinalen Symptome wurden bisher eher auf Läsionen im Rückenmark zurückgeführt und nicht direkt in Verbindung mit der autoimmunen Ätiologie der Erkrankung gebracht.
In dieser Studie wurde das enterische Nervensystem (ENS) in einem B-Zell- und Antikörper-abhängigen Mausmodell der MS untersucht. Dafür wurde der Autoimmunprozess durch Immunisierung mit MP4, einem Fusionsprotein aus dem Myelin-Basischen-Protein (MBP) und dem Proteolipid-Protein (PLP), ausgelöst. Das ZNS und ENS wurden in den unterschiedlichen Erkrankungsstadien immunhistochemisch und elektronenmikroskopisch analysiert. Neben der Immunpathologie des ZNS konnte dabei eine Degeneration des ENS schon vor dem Einsetzen der ersten neurologischen Defizite nachgewiesen werden. Die ENS-Pathologie war antikörper-mediiert und ging einher mit einer verringerten gastrointestinalen Motilität sowie mit einer Gliose und Neurodegeneration des ENS.
Mithilfe von Immunpräzipitation und Massenspektrometrie konnten im ENS vier mögliche Zielstrukturen des Autoimmunprozesses identifiziert werden, was auf sog. epitope spreading hindeutet. Auch im Plasma von MS-Patienten konnten Antikörper gegen drei dieser Antigene nachgewiesen werden. Des Weiteren zeigten sich in Kolon-Resektaten von MS-Patienten erste Ansätze einer Neurodegeneration und Gliose des ENS.
In dieser Studie wurde zum ersten Mal ein direkter Zusammenhang zwischen der Autoimmunreaktion gegen das ZNS und einer simultanen Reaktion gegen das ENS gezeigt. Dies kann einen Paradigmenwechsel im Verständnis der Immunpathogenese der MS anstoßen und neue therapeutische und diagnostische Ansätze initiieren.
Hintergrund:
Eine Panikattacke beginnt typischerweise mit der Wahrnehmung einer physiologischen oder psychischen Veränderung, die von der Person als bedrohlich eingestuft wird. Während in klassischen neuroanatomischen Modellen der Panikstörung die Amygdala in der sich anschließenden aufschaukelnden Symptomatik in den Mittelpunkt gestellt wurde, erweitern aktuelle Studien dieses amygdalozentrische Bild und lenken die Aufmerksamkeit auf extratemporale neuronale Netzwerke. Dysfunktionen im neuronalen Aufmerksamkeitsnetzwerk, relevant für die Wahrnehmung und Regulierung exterozeptiver und interozeptiver Prozesse, könnten zur Entstehung einer Panikstörung beitragen. Weiterhin scheinen bestimmte Risikogenotypen für die Panikstörung wie z.B. im Adenosin Rezeptor 2A (ADORA2A) oder dem Neuropeptid S Rezeptor (NPSR1) Gen und die entsprechenden Neurotransmittersysteme in der Regulierung der Aufmerksamkeitsnetzwerke involviert zu sein.
Fragestellung:
Dysfunktionen im noradrenergen bottom-up Alertingnetzwerk und in der dopaminergen exekutiven top-down Aufmerksamkeitskontrolle könnten in einem neurokognitiven Entstehungsmodell der Panikstörung eine wichtige Rolle spielen. Mit Hilfe funktioneller Bildgebung soll die Funktion des neuronalen Aufmerksamkeitsnetzwerkes in einer nichtklinischen Stichprobe abhängig von genetischen Risikofaktoren und einer klinischen Stichprobe von und nach einer kognitiven Verhaltenstherapie untersucht werden.
Methoden:
Im nichtklinischen Teil der Untersuchung wurden in Studie 1 47 gesunde Versuchspersonen für die NPSR1 rs324981 Variante stratifiziert rekrutiert. Mittels fMRT wurde die Aktivität des Alertingnetzwerks und des Executive Control Netzwerks auf neuronaler Ebene mit dem Attentional Networt Test (ANT) untersucht. In Studie 2 wurde bei N=65 Versuchspersonen stratifiziert für die ADORA2A rs5751876 Variante als zusätzliches Verhaltensmaß die Fähigkeit zur interozeptiven Wahrnehmung in Bezug zur Konnektivität im insulären Ruhenetzwerk untersucht. Im klinischen Teil der Untersuchung (Studie 3) wurden 44 Patienten mit Panikstörung sowie eine entsprechend große und gematchte Kontrollgruppe rekrutiert. Es wurden fMRT Ruhemessungen vor und nach Abschluss einer kognitiven Verhaltenstherapie erhoben. Als zusätzliches Verhaltensmaß wurde die selbstberichtete Aufmerksamkeitskontrolle zwischen der Patienten- und der Kontrollgruppe verglichen.
Ergebnisse:
Träger des NPSR1 TT und des ADORA2A TT Risikogenotyps für Angst und Angsterkrankungen zeigten eine erhöhte Aktivität in Teilen des Alertingnetzwerks. Die Aktivität im Executive Control Netzwerk war arealabhängig teilweise erhöht, teilweise reduziert. Innerhalb eines interozeptiven Netzwerks zeigten Träger des ADORA2A TT Genotyps Hinweise auf eine dysfunktionale fronto-striatale-insuläre Interaktion. Im klinischen Teil der Studie zeigten Patienten mit Panikstörung eine reduzierte Konnektivität des dorsolateralen Präfrontalkortex (dlPFC) im fronto-parietalen Aufmerksamkeitsnetzwerk. Die Konnektivität innerhalb dieses Netzwerks korrelierte mit Defiziten in selbstberichteter Aufmerksamkeitskontrolle bei Patienten mit Panikstörung. Nach Abschluss der Therapie zeigte sich bei Patienten, die von der Therapie profitiert hatten, wieder eine Zunahme oder Verbesserung der Konnektivität mit dem dlPFC.
Schlussfolgerung:
Die Ergebnisse dieser Untersuchung betonen die Rolle dysfunktionaler interozeptiver und exterozeptiver Aufmerksamkeitsnetzwerke in der Entstehung von Angsterkrankungen. Bei Patienten mit Panikstörung sowie gesunden Versuchspersonen mit bestimmten prädisponierenden genetischen Variationen scheint eine Dysbalance des neuronalen Aufmerksamkeitsnetzwerks bzgl. der Abstimmung von bottom-up und top-down Netzwerken vorzuliegen.