Refine
Has Fulltext
- yes (29)
Is part of the Bibliography
- yes (29)
Year of publication
Document Type
- Doctoral Thesis (29)
Keywords
- Thrombozyt (3)
- Tissue Engineering (3)
- Bioinformatik (2)
- Cytoskeleton (2)
- Metagenom (2)
- Schlaganfall (2)
- Thrombose (2)
- Zellskelett (2)
- metagenomics (2)
- 3 D bioprinting (1)
Institute
- Graduate School of Life Sciences (29) (remove)
Sonstige beteiligte Institutionen
- Biomedical Center Munich, Department of Physiological Chemistry, Ludwig-Maximilians-Universität München (1)
- Chair of Experimental Biomedicine I (1)
- Department of Veterinary Sciences, Experimental Parasitology, Ludwig-Maximilians-Universität München (1)
- GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel (1)
- Research Center for Infectious Diseases, University of Würzburg (1)
- University of Stellenbosch, Division of Medical Virology (1)
The role of miR-21 in the pathophysiology of neuropathic pain using the model of B7-H1 knockout mice
(2017)
The impact of microRNA (miRNA) as key players in the regulation of immune and neuronal gene expression and their role as master switches in the pathophysiology of neuropathic pain is increasingly recognized. miR-21 is a promising candidate that could be linked to the immune and the nociceptive system. To further investigate the pathophysiological role of miR-21 in neuropathic pain, we assesed mice deficient of B7 homolog 1 (B7-H1 ko), a protein with suppressive effect on inflammatory responses.
B7-H1 ko mice and wildtype littermates (WT) of three different age-groups, young (8 weeks), middle-aged (6 months), and old (12 months) received a spared nerve injury (SNI). Thermal withdrawal latencies and mechanical withdrawal thresholds were determined. Further, we investigated anxiety-, depression-like and cognitive behavior. Quantitative real time PCR was used to determine miR-21 relative expression in peripheral nerves, dorsal root ganglia and white blood cells (WBC) at distinct time points after SNI.
Naïve B7-H1 ko mice showed mechanical hyposensitivity with increasing age. Young and middle-aged B7-H1 ko mice displayed lower mechanical withdrawal thresholds compared to WT mice. From day three after SNI both genotypes developed mechanical and heat hypersensitivity, without intergroup differences. As supported by the results of three behavioral tests, no relevant differences were found for anxiety-like behavior after SNI in B7-H1 ko and WT mice. Also, there was no indication of depression-like behavior after SNI or any effect of SNI on cognition in both genotypes. The injured nerves of B7-H1 ko and WT mice showed higher miR-21 expression and invasion of macrophages and T cells 7 days after SNI without intergroup differences. Perineurial miR-21 inhibitor injection reversed SNI-induced mechanical and heat hypersensitivity in old B7-H1 ko and WT mice.
This study reveals that reduced mechanical thresholds and heat withdrawal latencies are associated with miR-21 induction in the tibial and common peroneal nerve after SNI, which can be reversed by perineurial injection of a miR-21 inhibitor. Contrary to expectations, miR-21 expression levels were not higher in B7-H1 ko compared to WT mice. Thus, the B7-H1 ko mouse may be of minor importance for the study of miR-21 related pain. However, these results spot the contribution of miR-21 in the pathophysiology of neuropathic pain and emphasize the crucial role of miRNA in the regulation of neuronal and immune circuits that contribute to neuropathic pain.
Pertussis is a highly contagious acute respiratory disease of humans which is mainly caused by the gram-negative obligate human pathogen Bordetella pertussis. Despite the availability and extensive use of vaccines, the disease persists and has shown periodic re-emergence resulting in an estimated 640,000 deaths worldwide in 2014. The pathogen expresses various virulence factors that enable it to modulate the host immune response, allowing it to colonise the ciliated airway mucosa. Many of these factors also directly interfere with host signal transduction systems, causing damage to the ciliated airway mucosa and increase mucous production. Of the many virulence factors of B. pertussis, only the tracheal cytotoxin (TCT) is able to recapitulate the pathophysiology of ciliated cell extrusion and blebbing in animal models and in human nasal biopsies. Furthermore, due to the lack of appropriate human models and donor materials, the role of bacterial virulence factors has been extrapolated from studies using animal models infected with either B. pertussis or with the closely related species B. bronchiseptica which naturally causes respiratory infections in these animals and produces many similar virulence factors. Thus, in the present work, in vitro airway mucosa models developed by co-culturing human airway epithelia cells and fibroblasts from the conduction zone of the respiratory tract on a decellularized porcine small intestine submucosa scaffold (SISser®) were used, since these models have a high correlation to native human conducting zone respiratory epithelia. The major aim was to use the engineered airway mucosa models to elucidate the contribution of B. pertussis TCT in the pathophysiology of the disease as well as the virulence mechanism of B. pertussis in general. TCT and lipopolysaccharide (LPS) either alone or in combination were observed to induce epithelial cell blebbing and necrosis in the in vitro airway mucosa model. Additionally, the toxins induced viscous hyper-mucous secretion and significantly disrupted barrier properties of the in vitro airway mucosa models. This work also sought to assess the invasion and intracellular survival of B. pertussis in the polarised epithelia, which has been critically discussed for many years in the literature. Infection of the models with B. pertussis showed that the bacteria can adhere to the models and invade the epithelial cells as early as 6 hours post inoculation. Invasion and intracellular survival assays indicated the bacteria could invade and persist intracellularly in the epithelial cells for up to 3 days. Due to the novelty of the in vitro airway mucosa models, this work also intended to establish a method for isolating individual cells for scRNA-seq after infection with B. pertussis. Cold dissociation with Bacillus licheniformis subtilisin A was found to be capable of dissociating the cells without inducing a strong fragmentation, a problem which occurs when collagenase and trypsin/EDTA are used. In summary, the present work showed that TCT acts possibly in conjunction with LPS to disrupt the human airway mucosa much like previously shown in the hamster tracheal ring models and thus appears to play an important role during the natural B. pertussis infection. Furthermore, we established a method for infecting and isolating infected cells from the airway mucosa models in order to further investigate the effect of B. pertussis infection on the different cell populations in the airway by single cell analytics in the future.
Ein Schlüsselereignis, welches dem prognosebestimmenden Organversagen bei systemi-schen Entzündungsprozessen und Sepsis vorangeht, ist die Entwicklung einer mikrovas-kulären endothelialen Schrankenstörung. Das vaskuläre endotheliale (VE-) Cadherin als mechanischer Stabilisator der Endothelbarriere spielt dabei eine wichtige Rolle. In der Inflammation werden Spaltprodukte von VE-Cadherin (sVE-Cadherin) gebildet. Ge-genstand der vorliegenden Arbeit war die Untersuchung der Hypothese ob diese Spalt-produkte selbst an der Störung der endothelialen Barrierefunktion beteiligt sind.
Es wurde hierfür humanes sVE-Cadherin bestehend aus den extrazellulären Domänen EC1-5 (sVE-CadherinEC1-5) generiert. In Messungen des transendothelialen elektrischen Widerstands (TER), mit Immunfluoreszenzfärbungen und Western Blot Analysen wird gezeigt, dass sVE-Cadherin dosisabhängig die Barriere Integrität in primären humanen dermalen Endothelzellen stört. Dies führt zu einer Reduktion von VE-Cadherin und den assoziierten Proteinen α-, γ- und δ-Catenin und ZO-1, die nach der Applikation von sVE-Cadherin an den Zellgrenzen reduziert sind. Die Interaktion zwischen VE-PTP und VE-Cadherin wird durch sVE-CadherinEC1-5 reduziert. Durch pharmakologische Hem-mung der Phosphataseaktivität von VE-PTP mittels AKB9778 wird der durch sVE-CadherinEC1-5-induzierte Verlust der Endothelbarriere aufgehoben. Dagegen zeigt die direkte Aktivierung von Tie-2 mittels Angiopoetin-1 keinen protektiven Effekt auf die durch sVE-CadherinEC1-5 gestörte Endothelbarriere. Weitere Analysen zeigen eine erhöh-te Expression von GEF-H1 durch sVE-CadherinEC1-5. Diese ist ebenfalls durch AKB9778 hemmbar.
Zusätzlich zu diesen Untersuchungen wurden die Konstrukte EC1-4 und EC3-5 in ver-schiedene Vektoren kloniert, um zu bestimmen, ob die extrazelluläre Domäne 5 von VE-Cadherin die dominante Rolle bei den sVE-Cadherin-vermittelten Effekten spielt.
Zusammenfassend zeigen diese Untersuchungen zum ersten Mal, dass sVE-CadherinEC1-5 unabhängig von proinflammatorischen Auslösern über die Aktivierung des VE-PTP/RhoA-Signalweges den Zusammenbruch der Endothelbarriere mitversursacht. Dies stellt einen neuen pathophysiologischer Mechanismus dar, der zum Gesamtverständnis der entzündungsinduzierten Barriereveränderungen des Endothels beiträgt.
In eukaryotes, the enormously long DNA molecules need to be packaged together with histone proteins into nucleosomes and further into compact chromatin structures to fit it into the nucleus. This nuclear organisation interferes with all phases of transcription that require the polymerase to bind to DNA. During transcription – the process in which the hereditary information stored in DNA is transferred to many transportable RNA molecules - nucleosomes form a physical obstacle for polymerase progression. Thus, transcription is usually accompanied by processes mediating nucleosome destabilisation, including post-translational histone modifications (PTMs) or exchange of canonical histones by their variant forms. To the best of our knowledge, acetylation of histones has the highest capability to induce chromatin opening. The lysine modification can destabilise histone-DNA interactions within a nucleosome and can serve as a binding site for various chromatin remodelers that can modify the nucleosome composition. For example, H4 acetylation can impede chromatin folding and can stimulate the exchange of canonical H2A histone by its variant form H2A.Z at transcription start sites (TSSs) in many eukaryotes, including humans. As histone H4, H2A.Z can be post-translationally acetylated and as acetylated H4, acetylated H2A.Z is enriched at TSSs suggested to be critical for transcription. However, thus far, it has been difficult to study the cause and consequence of H2A.Z acetylation.
Even though, genome-wide chromatin profiling studies such as ChIP-seq have already revealed the genomic localisation of many histone PTMs and variant proteins, they can only be used to study individual chromatin marks and not to identify all factors important for establishing a distinct chromatin structure. This would require a comprehensive understanding of all marks associated to a specific genomic locus. However, thus far, such analyses of locus-specific chromatin have only been successful for repetitive regions, such as telomeres.
In my doctoral thesis, I used the unicellular parasite Trypanosoma brucei as a model system for chromatin biology and took advantage of its chromatin landscape with TSSs comprising already 7% of the total T. brucei genome (humans: 0.00000156%). Atypical for a eukaryote, the protein-coding genes are arranged in long polycistronic transcription units (PTUs). Each PTU is controlled by its own ~10 kb-wide TSS, that lies upstream of the PTU. As observed in other eukaryotes, TSSs are enriched with nucleosomes containing acetylated histones and the histone variant H2A.Z. This is why I used T. brucei to particularly investigate the TSS-specific chromatin structures and to identify factors involved in H2A.Z deposition and transcription regulation in eukaryotes. To this end, I established an approach for locus-specific chromatin isolation that would allow me to identify the TSSs- and non-TSS-specific chromatin marks. Later, combining the approach with a method for quantifying lysine-specific histone acetylation levels, I found H2A.Z and H4 acetylation enriched in TSSs-nucleosomes and mediated by the histone acetyltransferases HAT1 and HAT2. Depletion of HAT2 reduced the levels of TSS-specific H4 acetylation, affected targeted H2A.Z deposition and shifted the sites of transcription initiation. Whereas HAT1 depletion had only a minor effect on H2A.Z deposition, it had a strong effect on H2A.Z acetylation and transcription levels. My findings demonstrate a clear link between histone acetylation, H2A.Z deposition and transcription initiation in the early diverged unicellular parasite T. brucei, which was thus far not possible to determine in other eukaryotes. Overall, my study highlights the usefulness of T. brucei as a model system for studying chromatin biology. My findings allow the conclusion that H2A.Z regardless of its modification state defines sites of transcription initiation, whereas H2A.Z acetylation is essential co-factor for transcription initiation. Altogether, my data suggest that TSS-specific chromatin establishment is one of the earliest developed mechanisms to control transcription initiation in eukaryotes.
Adrenocortical carcinoma (ACC) is a rare, but highly aggressive endocrine malignancy. Tumor-related hypercortisolism is present in 60 % of patients and associated with worse outcome. While cancer immunotherapies have revolutionized the treatment of many cancer entities, the results of initial studies of different immune checkpoint inhibitors in ACC were heterogeneous. Up to now, five small clinical trials with a total of 121 patients have been published and demonstrated an objective response in only 17 patients. However, one of the studies, by Raj et al., reported a clinically meaningful disease control rate of 52 % and a median overall survival of almost 25 months suggesting that a subgroup of ACC patients may benefit from immunotherapeutic approaches. Following the hypothesis that some ACCs are characterized by a glucocorticoid-induced T lymphocytes depletion, several studies were performed as part of the presented thesis. First, the immune cell infiltration in a large cohort of 146 ACC specimens was investigated. It was demonstrated for the first time, and against the common assumption, that ACCs were infiltrated not only by FoxP3+ regulatory T cells (49.3 %), but also that a vast majority of tumor samples was infiltrated by CD4+ TH cells (74 %) and CD8+ cytotoxic T cells (84.3 %), albeit the immune cell number varied heterogeneously and was rather low (median: 7.7 CD3+ T cells / high power field, range: 0.1-376). Moreover, the presence of CD3+-, CD4+- and CD8+ ACC-infiltrating lymphocytes was associated with an improved recurrence-free (HR: 0.31 95 % CI 0.11-0.82) and overall survival (HR: 0.47 96 % CI 0.25-0.87). Particularly, patients with tumor-infiltrating CD4+ TH cells without glucocorticoid excess had a significantly longer overall survival compared to patients with T cell-depleted ACC and hypercortisolism (121 vs. 27 months, p = 0.004). Hence, the impact of glucocorticoids might to some extent be responsible for the modest immunogenicity in ACC as hypercortisolism was reversely correlated with the number of CD4+ TH cells. Accordingly, CD3+ T cells co-cultured with steroidogenic NCI-H295R ACC cells demonstrated in vitro an enhanced anti-tumoral cytotoxicity by secreting 747.96 ±225.53 pg/ml IFN-γ in a therapeutically hormone-depleted microenvironment (by incubation with metyrapone), versus only 276.02 ±117.46 pg/ml IFN-γ in a standard environment with glucocorticoid excess.
Other potential biomarkers to predict response to immunotherapies are the immunomodulatory checkpoint molecules, programmed cell death 1 (PD-1) and its ligand PD-L1, since both are targets of antibodies used therapeutically in different cancer entities. In a subcohort of 129 ACCs, expressions of both molecules were heterogeneous (PD-1 17.4 %, range 1-15; PD-L1 24.4 %, range 1 - 90) and rather low. Interestingly, PD-1 expression significantly influenced ACC patients´ overall (HR: 0.21 95 % CI 0.53-0.84) and progression- free survival (HR: 0.30 95 % CI 0.13-0.72) independently of established factors, like ENSAT tumor stage, resection status, Ki67 proliferation index and glucocorticoid excess, while PD-L1 had no impact.
In conclusion, this study provides several potential explanations for the heterogeneous results of the immune checkpoint therapy in advanced ACC. In addition, the establishment of PD-1 as prognostic marker can be easily applied in routine clinical care, because it is nowadays anyway part of a detailed histo-pathological work-up. Furthermore, these results provide the rationale and will pave the way towards a combination therapy using immune checkpoint inhibitors as well as glucocorticoid blockers. This will increase the likelihood of re-activating the immunological anti-tumor potential in ACC. However, this will have to be demonstrated by additional preclinical in vivo experiments and finally in clinical trials with patients.
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
Marine sponges (phylum Porifera) are simple, sessile, filter-feeder animals. Microbial symbionts are commonly found in the sponge internal tissue, termed the mesohyl. With respect to the microbial content, sponges are classified as either low-microbial abundance sponges (LMA), or high-microbial abundance sponges (HMA). The HMA/LMA dichotomy was explored in this Thesis using the Red Sea sponges as experimental models. A range of methods encompassing transmission electron microscopy, 16S rRNA gene deep sequencing, and metatranscriptomics was employed towards this goal. Here, particular emphasis was placed on the functional analysis of sponge microbiomes.
The Red Sea sponges Stylissa carteri, Xestospongia testudinaria, Amphimedon ochracea, and Crella cyathophora were classified as HMA or LMA sponges using transmission electron microscopy. The diversity, specificity, and transcriptional activity of microbes associated with the sponges S. carteri (LMA) and X. testudinaria (HMA) and seawater were investigated using 16S rRNA amplicon pyrosequencing. The microbial composition of S. carteri was more similar to that of seawater than to that of X. testudinaria, which is consistent with the observation that the sequence data set of S. carteri contained many more possibly seawater sequences (~24%) than the X. testudinaria data set (~6%). The most abundant operational taxonomic units (OTUs) were shared between all three sources (S. carteri, X. testudinaria, seawater), while rare OTUs were unique to any given source. Despite this high degree of overlap, each sponge species contained its own specific microbiota. S. carteri microbiomes were enriched of Gammaproteobacteria and members of the genus Synechococcus and Nitrospira. Enriched members of X. testudinaria microbiomes included Chloroflexi, Deferribacteres, and Actinobacteria. The transcriptional activity of sponge-associated microorganisms was assessed by comparing 16S rRNA gene with transcript amplicons, which showed a good correlation.
The microbial functional gene repertoire of sponges and seawater from the Red Sea (X. testudinaria, S. carteri) and the Mediterranean (Aplysina aerophoba, Dysidea avara) were investigated with the environmental microarray GeoChip 4. Amplicon sequencing was performed alongside in order to assess microbial diversity. The typical microbial diversity patterns characteristic of HMA (abundance of Gammaproteobacteria, Chloroflexi, Acidobacteria, Deferribacteres, and others) and LMA sponges (abundance of Alpha-, Beta-, Gammaproteobacteria, Cyanobacteria, and Bacteroidetes) were confirmed. The HMA/LMA dichotomy was stronger than any possible geographic pattern based on microbial diversity (amplicon) and functional genes (GeoChip). However upon inspection of individual genes detected by GeoChip, very few specific differences were discernible, including differences related to microbial ammonia oxidation, ammonification (higher gene abundance in sponges over seawater) as well as denitrification (lower gene abundance). Furthermore, a higher abundance of a gene, pcc, representative of archaeal autotrophic carbon fixation was noted in sponges over seawater. Thirdly, stress-related genes, in particular those related to radiation, were found in lower abundances in sponge microbiomes than in seawater. With the exception of few documented specific differences, the functional gene repertoire between the different sources appeared largely similar.
The most actively expressed genes of S. carteri microbiomes were investigated with metatranscriptomics. Prokaryotic mRNA was enriched from sponge total RNA, sequenced using Illumina HiSeq technology, and annotated with the metagenomics Rapid Annotation using Subsystem Technology (MG-RAST) pipeline. High expression of archaeal ammonia oxidation and photosynthetic carbon fixation by members of the genus Synechococcus was detected. Functions related to stress response and membrane transporters were among the most highly expressed by S. carteri symbionts. Unexpectedly, gene functions related to methylotrophy were highly expressed by gammaproteobacterial symbionts. The presence of seawater-derived microbes is indicated by the phylogenetic proximity of organic carbon transporters to orthologs of members from the SAR11 clade. In summary, the most expressed functions of the S. carteri-associated microbial community were revealed and linked to the dominant taxonomic members of the microbiome.
In conclusion, HMA and LMA Red Sea sponges were used as models to gain insights into relevant themes in sponge microbiology, i.e. diversity, specificity, and functional activities. Overall, my Thesis contributes to a better understanding of sponge-associated microbial communities, and the implications of this association to marine ecology.
Platelets are important players in haemostasis and their activation is essential to limit post-traumatic blood loss upon vessel injury. On the other hand, pathological platelet activation may lead to thrombosis resulting in myocardial infarction and stroke. Platelet activation and subsequent thrombus formation are, therefore, tightly regulated and require a well-defined interplay of platelet surface receptors, intracellular signalling molecules, cytoskeletal rearrangements and the activation of the coagulation cascade.
In vivo thrombosis and haemostasis models mimic thrombus formation at sites of vascular lesions and are frequently used to assess thrombotic and haemostatic functions of platelets. In this dissertation, different in vivo models were used in mice to address the question at what level a reduced platelet count (PC) compromises stable thrombus formation. To study this, mice were rendered thrombocytopenic by low-dose anti-GPIbα antibody treatment and subjected to a tail bleeding time assay as well as to four different in vivo thrombosis models. Haemostasis and occlusive thrombus formation in small vessels were only mildly affected even at severe reductions of the PC. In contrast, occlusive thrombus formation in larger arteries required higher PCs demonstrating that considerable differences in the sensitivity for PC reductions exist between these models.
In a second part of this study, mice were rendered thrombocytopenic by injection of high-dose anti-GPIbα antibody which led to the complete loss of all platelets from the circulation for several days. During recovery from thrombocytopenia, the newly generated platelet population was characterised and revealed a defect in immunoreceptor tyrosine-based activation motif (ITAM)-signalling. This defect translated into impaired arterial thrombus formation.
To further investigate ITAM-signalling in vivo, genetically modified mice were analysed which display a positive or negative regulation of platelet ITAM-signalling in vitro. Whereas mice lacking the adapter Grb2 in platelets showed a delayed thrombus formation in vivo after acetylsalicylic acid treatment, Clp36ΔLIM bone marrow chimeric mice and SLAP/SLAP2-deficient mice displayed pro-thrombotic properties in vivo. Finally, mice lacking the adapter protein EFhd2 were analysed in vitro and in vivo. However, EFhd2-deficient platelets showed only a minor increase in the procoagulant activity compared to control.
Antikörper, die gegen eine klinisch relevante Gruppe von Rezeptoren innerhalb der Tumornekrosefaktor-Rezeptor-Superfamilie (TNFRSF) gerichtet sind, darunter CD40 und CD95 (Fas/Apo-1), benötigen ebenfalls eine Bindung an Fc-Gamma-Rezeptoren (FcγRs), um eine starke agonistische Wirkung zu entfalten. Diese FcγR-Abhängigkeit beruht weitgehend auf der bloßen zellulären Verankerung durch die Fc-Domäne des Antikörpers und benötigt dabei kein FcγR-Signalling. Ziel dieser Doktorarbeit war es, das agonistische Potenzial von αCD40- und αCD95-Antikörpern unabhängig von der Bindung an FcγRs durch die Verankerung an Myelomzellen zu entfalten. Zu diesem Zweck wurden verschiedene Antikörpervarianten (IgG1, IgG1-N297A, Fab2) gegen die TNFRSF-Mitglieder CD40 und CD95 genetisch mit einem einzelkettig kodierten B-Zell-aktivierenden Faktor (scBaff) Trimer als C-terminale myelom-spezifische Verankerungsdomäne fusioniert, welche die Fc-Domäne-vermittelte FcγR-Bindung ersetzt. Diese bispezifischen Antikörper-scBaff-Fusionsproteine wurden in Bindungsstudien und funktionellen Assays mit Tumorzelllinien untersucht, die einen oder mehrere der drei Baff-Rezeptoren exprimieren: BaffR, Transmembran-Aktivator und CAML-Interaktor (TACI) und B-Zell-Reifungsantigen (BCMA). Zelluläre Bindungsstudien zeigten, dass die Bindungseigenschaften der verschiedenen Domänen innerhalb der Antikörper-scBaff-Fusionen gegenüber der Zielantigene vollständig intakt blieben. In Ko-Kulturversuchen von CD40- und CD95-responsiven Zellen mit BaffR-, BCMA- oder TACI-exprimierenden Verankerungszellen zeigten die Antikörper-Fusionsproteine einen starken Agonismus, während in Ko-Kulturen mit Zellen ohne Expression von Baff-interagierenden Rezeptoren nur eine geringe Rezeptorstimulation beobachtet wurde. Die hier vorgestellten αCD40- und αCD95-Antikörper-scBaff-Fusionsproteine zeigen also Myelom-spezifische Aktivität und versprechen im Vergleich zu herkömmlichen CD40- und CD95-Agonisten geringere systemische Nebenwirkungen.
Neurobiology is widely supported by bioinformatics. Due to the big amount of data generated from the biological side a computational approach is required. This thesis presents four different cases of bioinformatic tools applied to the service of Neurobiology.
The first two tools presented belong to the field of image processing. In the first case, we make use of an algorithm based on the wavelet transformation to assess calcium activity events in cultured neurons. We designed an open source tool to assist neurobiology researchers in the analysis of calcium imaging videos. Such analysis is usually done manually which is time consuming and highly subjective. Our tool speeds up the work and offers the possibility of an unbiased detection of the calcium events. Even more important is that our algorithm not only detects the neuron spiking activity but also local spontaneous activity which is normally discarded because it is considered irrelevant. We showed that this activity is determinant in the calcium dynamics in neurons and it is involved in important functions like signal modulation and memory and learning.
The second project is a segmentation task. In our case we are interested in segmenting the neuron nuclei in electron microscopy images of c.elegans. Marking these structures is necessary in order to reconstruct the connectome of the organism. C.elegans is a great study case due to the simplicity of its nervous system (only 502 neurons). This worm, despite its simplicity has taught us a lot about neuronal mechanisms. There is still a lot of information we can extract from the c.elegans, therein lies the importance of reconstructing its connectome. There is a current version of the c.elegans connectome but it was done by hand and on a single subject which leaves a big room for errors. By automatizing the segmentation of the electron microscopy images we guarantee an unbiased approach and we will be able to verify the connectome on several subjects.
For the third project we moved from image processing applications to biological modeling. Because of the high complexity of even small biological systems it is necessary to analyze them with the help of computational tools. The term in silico was coined to refer to such computational models of biological systems. We designed an in silico model of the TNF (Tumor necrosis factor) ligand and its two principal receptors. This biological system is of high relevance because it is involved in the inflammation process. Inflammation is of most importance as protection mechanism but it can also lead to complicated diseases (e.g. cancer). Chronic inflammation processes can be particularly dangerous in the brain. In order to better understand the dynamics that govern the TNF system we created a model using the BioNetGen language. This is a rule based language that allows one to simulate systems where multiple agents are governed by a single rule. Using our model we characterized the TNF system and hypothesized about the relation of the ligand with each of the two receptors. Our hypotheses can be later used to define drug targets in the system or possible treatments for chronic inflammation or lack of the inflammatory response.
The final project deals with the protein folding problem. In our organism proteins are folded all the time, because only in their folded conformation are proteins capable of doing their job (with some very few exceptions). This folding process presents a great challenge for science because it has been shown to be an NP problem. NP means non deterministic Polynomial time problem. This basically means that this kind of problems cannot be efficiently solved. Nevertheless, somehow the body is capable of folding a protein in just milliseconds. This phenomenon puzzles not only biologists but also mathematicians. In mathematics NP problems have been studied for a long time and it is known that given the solution to one NP problem we could solve many of them (i.e. NP-complete problems). If we manage to understand how nature solves the protein folding problem then we might be able to apply this solution to many other problems. Our research intends to contribute to this discussion. Unfortunately, not to explain how nature solves the protein folding problem, but to explain that it does not solve the problem at all. This seems contradictory since I just mentioned that the body folds proteins all the time, but our hypothesis is that the organisms have learned to solve a simplified version of the NP problem. Nature does not solve the protein folding problem in its full complexity. It simply solves a small instance of the problem. An instance which is as simple as a convex optimization problem. We formulate the protein folding problem as an optimization problem to illustrate our claim and present some toy examples to illustrate the formulation. If our hypothesis is true, it means that protein folding is a simple problem. So we just need to understand and model the conditions of the vicinity inside the cell at the moment the folding process occurs. Once we understand this starting conformation and its influence in the folding process we will be able to design treatments for amyloid diseases such as Alzheimer's and Parkinson's.
In summary this thesis project contributes to the neurobiology research field from four different fronts. Two are practical contributions with immediate benefits, such as the calcium imaging video analysis tool and the TNF in silico model. The neuron nuclei segmentation is a contribution for the near future. A step towards the full annotation of the c.elegans connectome and later for the reconstruction of the connectome of other species. And finally, the protein folding project is a first impulse to change the way we conceive the protein folding process in nature. We try to point future research in a novel direction, where the amino code is not the most relevant characteristic of the process but the conditions within the cell.