Refine
Is part of the Bibliography
- yes (300) (remove)
Year of publication
- 2013 (300) (remove)
Document Type
- Doctoral Thesis (233)
- Complete part of issue (48)
- Book (3)
- Book article / Book chapter (3)
- Master Thesis (3)
- Jahresbericht (2)
- Preprint (2)
- Report (2)
- Review (2)
- Study Thesis (term paper) (1)
Language
- German (300) (remove)
Keywords
- Würzburg (49)
- University (47)
- Universität (47)
- Wuerzburg (47)
- Wurzburg (47)
- Bor (7)
- HIV (6)
- Chemische Synthese (5)
- Silicium (4)
- Synthese (4)
Institute
- Universität Würzburg (38)
- Institut für Pharmazie und Lebensmittelchemie (14)
- Medizinische Klinik und Poliklinik I (14)
- Institut für Anorganische Chemie (13)
- Julius-von-Sachs-Institut für Biowissenschaften (13)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (13)
- Medizinische Fakultät (13)
- Universität - Fakultätsübergreifend (13)
- Lehrstuhl für Orthopädie (9)
- Theodor-Boveri-Institut für Biowissenschaften (8)
Schriftenreihe
Sonstige beteiligte Institutionen
- Orthopädische Klinik und Poliklinik der Universität Würzburg (2)
- Fraunhofer IGB Stuttgart (1)
- Fraunhofer-Institut für Silcatforschung ISC in Würzburg (1)
- IFT Institut für Therapieforschung München (1)
- Institut für Neurowissenschaften der Universität Mailand (1)
- Klinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie des Leopoldina Krankenhaus Schweinfurt (1)
- König-Ludwig Haus (1)
- Ludwig-Maximilians-Universität München, Fakultät für Physik (1)
- Missionsärztliches Institut Würzburg (1)
- Professur für Museologie (1)
ResearcherID
- N-7500-2014 (1)
Neisseria meningitidis ist ein wichtiger Erreger von Meningitis und Sepsis insbesondere bei jungen Menschen, gleichzeitig sind hohe Raten asymptomatischen Trägertums bekannt. Als die Virulenz begünstigende Faktoren wurden unter anderem die Kapsel, Pili, äußere Membranvesikel (OMV) und Lipopolysaccharid (LPS) identifiziert, die es dem Erreger erleichtern, das menschliche Immunsystem zu überwinden.
Dabei war bisher die Rolle von Neutrophil Extracellular Traps (NETs) als neu beschriebene Komponente der angeborenen Immunantwort nicht untersucht worden. NETs stellen spinnennetzartige DNA-Strukturen mit globulären Proteindomänen dar, die aus neutrophilen Granulozyten entstehen und als antimikrobiell gelten. Ziel dieser Arbeit war es, die Wirkung von NETs auf Meningokokken zu charakterisieren und mögliche Resistenzmechanismen der Bakterien zu identifizieren.
In den vorliegenden Versuchen konnte gezeigt werden, dass Meningokokken an NETs binden und durch diese in ihrer Proliferation gehemmt werden. Eine Lokalisation der Bakterien an die NETs konnte dargestellt werden, LPS und Pili wurden als wichtige Strukturen für die Vermittlung der NET-Bindung identifiziert. OMVs zeigten sich als protektiv gegenüber dem Einfluss der NETs, indem sie die Bindung der Erreger an die NETs blockierten.
Wenig empfindlich zeigten sich die Bakterien gegenüber Histonen als den quantitativ bedeutsamsten NET-Proteinen. Meningokokken schützen sich gegenüber dem Einfluss der NETs durch Ausbildung von Kapsel und LPS mit intakter Phosphoethanolamin-Modifikation. Ebenso vermitteln zwei Cathelicidin-Resistenzgene den Bakterien einen Überlebensvorteil. Keine Rolle bei der NET-Resistenz spielten die untersuchten Effluxmechanismen.
Neuere Untersuchungen von Lappann et al. indentifizierten Meningokokken und OMVs als potente NET-Induktoren. Damit könnten durch die relativ NET-resistenten Mikroorganismen andere Abwehrmechanismen der Neutrophilen konterkariert werden und eine Immunevasion begünstigt werden. Genauere Untersuchungen diesbezüglich stehen noch aus.
Um den Silicium-α-Effekt "als vergrößerte Reaktivität der Si–OC-Bindung" von α-Silanen der allgemeinen Formel ROSiMe2CH2X verglichen mit den entsprechenden γ-Silanen des Typs ROSiMe2(CH2)3X (R = Me, Et; X = funktionelle Gruppe) besser zu verstehen, wurde im Rahmen dieser Arbeit eine systematische experimentelle Untersuchung der Hydrolyse der genannten Alkoxy¬silane durchgeführt. Um die Abhängigkeit der Hydrolyse von der funktionellen Gruppe X, dem Abstand zwischen dem Silicium-Atom und der funktionellen Gruppe X (CH2 oder (CH2)3, α- oder γ-Silan) und dem pD-Wert zu untersuchen, wurde eine Vielzahl an kinetischer Hydrolyse-Studien in CD3CN/D2O unter selbsteinstellendem pD-Wert, unter Verwendung von Pufferlösungen und unter definierten basischen und sauren Bedingungen durchgeführt. Die Kinetik der Hydrolyse der untersuchten Silane wurde dabei mittels 1H-NMR Spektroskopie verfolgt. Die Ergebnisse dieser Untersuchungen zeigen eindeutig, dass der Silicium-α-Effekt nicht als ein einziger Effekt der funktionellen Gruppen verstanden werden kann. Im Gegenteil, die verschiedenen beobachteten Reaktivitäten sind das Resultat mehrerer verschiedener Teileffekte. Die jeweils beobachtete Reaktivität entspricht der Summe der möglichen Teileffekte und kann nicht durch einen bestimmten Silicium-α-Effekt erklärt werden.
Unsere Arbeitsgruppe verfolgt im Rattenmodell der Antikörper-induzierten DiCM einen Antikörper-spezifischen Therapieansatz durch die Gabe eines synthetischen β1-ECII homologen zyklischen „Fänger“-Peptids. Die Applikation dieses Peptids führte zu einer deutlichen Verbesserung wichtiger Herzparameter wie z.B. des Durchmessers des linken Ventrikels (LV) sowie der LV-Verkürzungsfraktion und des kardialen Indexes. Des Weiteren kam es unter der Peptid-Therapie zu einer signifikanten Reduktion des anti-β1-ECII Antikörpertiters trotz kontinuierlich durchgeführter Immunisierungen mit dem die Erkrankung induzierenden Antigen.
Es lag daher nahe, dass durch die Peptid-Therapie auch eine Art immunologischer Toleranz induziert wird, der eine Depletion bzw. funktionelle Beeinträchtigung von Zellen des Immunsystems, die an der Produktion von anti-β1-ECII Antikörpern beteiligt sind, zugrunde liegen könnte. Im Rahmen der vorliegenden Doktorarbeit war es daher Aufgabe, die verschiedenen Zellkomponenten der humoralen und zellulären Immunantwort zu untersuchen, um den immunologischen Effekt der Peptid-Applikation besser zu verstehen.
So scheinen in unserem Modell die β1-ECII-spezifischen CD4+T-Zellen durch die Peptid-Therapie
nicht beeinflusst zu werden; ebenso konnten unsere Experimente keinen Zyklopeptideffekt auf die langlebigen Plasmazellen nachweisen. Die erzielten Ergebnisse sprechen jedoch dafür, dass die Rückbildung des DiCM Phänotyps und der Abfall des anti-β1-ECII Antikörpertiters trotz kontinuierlicher Immunisierung zum einen auf der direkten Neutralisierung der anti-β1-ECII Antikörper durch die Ring-Peptide (Scavenger-Effekt)und zum anderen auf einer Depletion bzw. funktionellen Beeinträchtigung der β1-ECII-spezifischen Memory B-Zellen beruhen könnte. Der für die Reduktion der Memory B-Zellen letztlich verantwortliche molekulare Mechanismus muss jedoch noch in weiteren Experimenten untersucht werden.
Die im Rahmen der vorliegenden Arbeit erzielten Ergebnisse tragen aber wesentlich zum besseren Verständnis der Wirkungsweise dieses neuartigen Therapiekonzepts zur Behandlung der immuninduzierten Kardiomyopathie bei.
Die nunmehr hier vorgelegte Abhandlung über das leider im Verlauf des zweiten Weltkriegs zerstörte, aber in seiner Eigenschaft als Bestandteil der Darmstädtischen Hofmusik musikgeschichtlich einzigartige Carillon am ehemals landgräflichen und später großherzoglichen Schloss zu Darmstadt konnte einige neue und unerwartete Resultate zutage fördern.
Die erstmalige Publikation der umfangreichen landgräflichen Korrespondenz mit dessen Geschäftspartnern in den Niederlanden verdeutlicht den langen Prozess der Entwicklung und Entstehung des Carillons und offenbart das ungewohnt lebhafte Interesse des Landesherrn an diesem einmaligen Projekt.
Es wurde die enge konstruktionstechnische und klangliche Beziehung zwischen dem Darmstädter Instrument und dem des heutigen Muntturms zu Amsterdam klar und eindeutig bewiesen, so dass sich heute noch der klangliche Eindruck des Darmstädter Carillons ohne Probleme wieder gewinnen lässt.
Die Wandmaterialien innerhalb des Plasmagefäßes zukünftiger Fusionsreaktoren sind teilweise extremen thermischen und mechanischen Belastungen ausgesetzt. Der thermisch höchstbelastete Bereich der Wand des Torusgefäßes ist der Divertor. Hier werden die anfallende Fusionsasche (Helium) und erodierte Wandpartikel aus dem Plasma entfernt, wodurch aufgrund erhöhter Teilchen-Wand-Interaktion Wärmeflüsse von bis zu 15 MW/m² erreicht werden. Wolfram gilt momentan als ideales Wandmaterial mit direktem Plasmakontakt (Plasma-Facing-Material, PFM) für diese Beanspruchungen. Unterhalb des PFM muss die Wärme möglichst effizient in das Kühlmedium übertragen werden. Im zukünftigen Experimentalreaktor ITER wird dafür eine Kupferlegierung (CuCrZr) verwendet, welche eine hohe Wärmeleitfähigkeit besitzt und für Temperaturen von bis zu 350°C unter fusionsrelevanten Bedingungen einsetzbar ist. In dieser Konfiguration kann ITER mit einer Kühlmitteltemperatur von 150°C betrieben werden. Zur kommerziellen Energiegewinnung ist dies unzureichend, da die thermische Effizienz durch eine deutliche Anhebung der Kühlmitteltemperatur verbessert werden muss. Wird der konventionelle Ansatz einer Wasserkühlung zu Grunde gelegt, ist das Ziel die Kühlmitteltemperatur auf mindestens 300°C anzuheben. In der Folge ist CuCrZr als Wärmesenkenmaterial nicht mehr einsetzbar, da verstärkte Alterung und Festigkeitsverlust im Material auftritt. Zusätzlich vergrößern sich die thermisch induzierten Spannungen in der Komponente mit höheren Temperaturen, durch unterschiedlich große thermische Ausdehnungskoeffizienten der beteiligten Materialien. Für höhere Temperaturen stellt faserverstärktes Kupfer eine mögliche Alternative dar. Die Kombination der hohen Wärmeleitfähigkeit der Kupfermatrix mit der hohen Steifigkeit und Festigkeit von Siliziumcarbidfasern soll die nötigen thermischen und mechanischen Eigenschaften des Wärmesenkenmaterials auch für Temperaturen über 350°C gewährleisten. Im Rahmen dieser Arbeit wurden zwei unterschiedlich hergestellte SiC-Verstärkungsfasertypen hinsichtlich ihrer Eignung für die Herstellung eines Kupfer-Matrix-Komposits (CuMMC) untersucht. Die Zielstellung für das CuMMC beinhaltet eine Festigkeit von 300 MPa bei 300°C sowie eine möglichst hohe Wärmeleitfähigkeit von über 200 W m-1 K-1. Beide Parameter werden stark von der Faserfestigkeit und der Anbindung zwischen Faser und Matrix beeinflusst. Die Wärmeleitfähigkeit durch das CuMMC wird von der Kupfermatrix dominiert, wodurch geringere Faservolumenanteile von Vorteil sind. Höhere Faserfestigkeit erfordert geringere Faseranteile zum Erreichen mechanischer Vorgaben, womit die erzielbare Wärmeleitfähigkeit des CuMMCs steigt. Die Faserfestigkeit wird durch Einzel-Faser- Zugversuche validiert. Darüber hinaus ist die Anbindung zwischen Faser und Matrix essentiell, um die optimale Verstärkungswirkung durch die Fasern im CuMMC zu erzielen. Zur Faser-Matrix-Anbindung werden für jeden Fasertyp unterschiedliche Zwischenschichtsysteme verwendet, die anschließend durch Einzelfaser-Push-Out-Versuche validiert werden. Sind die Voraussetzungen von Faserfestigkeit und Anbindung für einen Fasertyp erfüllt, wird dieser für die Herstellung eines unidirektional verstärkten CuMMCs verwendet, welches bezüglich seiner mechanischen und thermischen Eigenschaften charakterisiert wird. Die mechanische Charakterisierung des CuMMCs erfolgt durch Zugversuche und dehnungsgeregelte, zyklische Versuche, wobei der Fokus neben der Festigkeit auf der Plastifizierung, Verfestigung und Schädigung innerhalb des CuMMCs liegt. Die thermische Charakterisierung erfolgt anhand der Wärmeleitfähigkeitsbestimmung sowohl parallel, als auch transversal zur Faserrichtung. Die mechanischen und thermischen Eigenschaften werden in Abhängigkeit von Faservolumenanteil und Temperatur untersucht. Um den Einfluss von längeren Betriebsphasen unter hoher thermischer Belastung analysieren zu können, wird das CuMMC bei 550°C für 400 h ausgelagert und anschließend wiederum mittels Vergleich seiner mechanischen und thermischen Eigenschaften auf mögliche Schädigungen untersucht. Zur Begutachtung von Schliff- und Bruchflächen zur Schadensanalyse stehen als bildgebende Untersuchungsmethoden neben Lichtmikroskopen ebenso Rasterelektronenmikroskope (REM) zur Verfügung.
Eine intakte Darmbarriere ist überlebensnotwendig. Bei einigen Erkrankungen kann eine Störung der Darmbarriere zur Translokation von Bakterien aus dem Lumen des Darmes in den menschlichen Körper führen, die septische Entzündungsprozesse auslösen können. In dieser Arbeit untersuchten wir zum einen die Bedeutung der desmosomalen Adhäsion für die Darmbarriere und zum anderen die Rolle der Rho-GTPasen in der Regulation der Darmbarriere. Für unsere Untersuchungen charakterisierten wir Caco2 Zellen, von denen wir nachweisen konnten, dass sie ein geeignetes Modell für die Darmbarriere sind. Wir konnten zeigen, dass Caco2 Zellen 14 Tage nach ihrer Konfluenz einen vollständigen Schlussleistenkomplex ausbilden und funktionell ähnlich Permeabilitäseigenschaften, wie die Mukosa von Ratten ex vivo aufweisen. Um die Bedeutung der desmosomalen Adhäsion zu klären, applizierten wir einen gegen die Extrazellulärdomäne von Dsg2 gerichteten Antikörper. Dieser Antikörper war spezifisch in der Lage Dsg2 vermittelte Adhäsion zu blockieren. Nach Applikation des Dsg2 ED konnten wir eine Fragmentierung der Occludensproteine, sowie eine gestörte Barrierefunktion mit erhöhter Permeabilität und erniedrigtem transepithelialen Widerstand nachweisen. Damit konnten wir zeigen, dass die Dsg2 vermittelte Adhäsion essentiell für die Aufrechterhaltung der Darmbarriere ist. Des Weiteren untersuchten wir die Rolle der Rho-GTPasen. Wir veränderten die Aktivität der Rho-GTPasen durch Applikation von bakteriellen Toxinen, wie CNF-1, CNF-y, Toxin B, C3-TF und LT sowie Mediatoren, wie Y27632 und quantifizierten die Änderung anschließend durch die Aktivitätsmessung der Rho-GTPasen mittels GLISA. In Immunfluoreszenzen konnten wir zeigen, dass sowohl eine Steigerung als auch eine Erniedrigung der Aktivität von RhoA mit einer Fragmentierung der Occludensproteine einhergeht, während die Adherens Junktionen unbeeinflusst bleiben. Diese morphologische Veränderung korreliert mit einer signifikant erhöhten Permeabilität und einem erniedrigtem transepithelialem elektrischen Widerstand. Im Gegensatz dazu, konnten wir zeigen, dass eine Erhöhung der Aktivität von Rac1 und Cdc42 in der Immunfluoreszenz zu keinen sichtbaren Veränderungen führt, die funktionellen Ergebnisse, mit einem erhöhten transepithelialen elektischen Widerstand und einer erniedrigten Permeabilität auf eine Stabilisierung der Barriere hinweisen. Eine Erniedrigung der Aktivität von Rac1 und Cdc42 führt hingegen zu einer Destabilisierung der Barriere. Morphologisch führte die Verringerung der Aktivität von Rac1 durch LT zu einer Reduzierung der Occludensproteine an den Zellgrenzen und zu einer diffuseren Färbung des Adherens Junktionsprotein E- Cadherin. Zum anderen zeigte sich in diesem Fall eine deutliche Reduzierung der Barrierefunktion mit einem erniedrigten transepithelialen elektrischen Widerstand und einer erhöhten Permeabilität. Letzlich konnte diese Arbeit durch ihre Erkenntnisse einen Teil dazu beizutragen, dass die komplexe Regulation der Darmbarriere besser verstanden wird. Dieses bessere Verständnis soll künftig zur Entwicklung neuer Therapieoptionen für Patienten dienen, die unter den septischen Folgen einer Störung der Darmbarriere leiden.
Mutationen in Genen, die für Kernhüllproteine codieren sind mit einer stetig zunehmenden Anzahl menschlicher Erkrankungen verbunden, die als Envelopathien bezeichnet werden. Erstaunlicherweise betrifft die Pathologie dieser Krankheiten spezifische Gewebe und Organe, obwohl entsprechende Proteine meist ubiquitär exprimiert werden. So führen beispielsweise Defekte in Emerin, einem Protein der inneren Kernhülle, zur X-chromosomalen Emery-
Dreifuss Muskeldystrophie (EDMD). Diese Krankheit ist durch Muskelschwäche oder –
schwund gekennzeichnet. Defekte im Kernhüllprotein MAN1 sind dagegen mit Krankheiten verbunden, die Knochen- und Hautgewebe betreffen. Interessanterweise besitzen beide
Proteine eine evolutionär hoch konservierte Domäne, die sog. LEM-Domäne. LEM-Domänen Proteine können mit der Kernlamina interagieren, ebenso mit dem sog. Barrier-to-
Autointegration Factor (BAF) sowie mit zahlreichen Transkriptionsfaktoren. Dennoch ist die
funktionelle Rolle der LEM-Domänen Proteine bis dato nicht vollständig aufgeklärt. In der vorliegenden Studie sollten daher die Funktionen von MAN1 und Emerin während der Frühentwicklung von Xenopus laevis untersucht werden.
Vorangehende Untersuchungen zeigten, dass Mikroinjektionen von XMAN1-
Antikörpern in Zwei-Zell-Stadien befruchteter Eizellen zu einem Arrest der Zellteilung in der injizierten Blastomere führten. Da dabei eine Störung der Kernhüllbildung spekuliert wurde, sollte durch Antikörper-vermittelter Inhibition von XMAN1 die Bildung von in vitro Kernen im Xenopus Eiextrakt untersucht werden. Dabei wurden Kerne beobachtet, die dekondensiertes
Chromatin zeigten, bei denen jedoch eine Fusion von Membranvesikeln zu einer durchgehenden Kernhülle nicht stattgefunden hatte. Frühere Charakterisierungen von MAN1 und Emerin zeigten unterschiedliche Expressionsmuster während der Entwicklung von X. laevis. Da XMAN1 ubiquitär exprimiert und Xemerin jedoch erstmals ab Stadium 41 nachweisbar ist, war es mittels Mikroinjektion von
Xemerin möglich zu zeigen, dass es in der Lage ist den Arrest der Zellteilung zu verhindern. Es wurde daher die These aufgestellt, dass MAN1 und Emerin während der Frühentwicklung von Xenopus überlappende Funktionen besitzen. Um diese These zu prüfen, wurde zunächst
unter Verwendung des Proximity Ligation Assays untersucht, ob beide Proteine miteinander interagieren können. Mit Hilfe dieser Methode konnte gezeigt werden, dass Interaktionen beider Proteine innerhalb der Kernhülle lokalisieren. Die Interaktionen blieben während der Mitose bestehen und waren erst wieder zum Ende der Mitose in der Kernhülle nachweisbar. Diese Resultate deuten daher darauf hin, dass XMAN1/Xemerin-Interaktionen während der ...
Zielsetzung: In dieser Machbarkeitsstudie evaluierten wir den aktuellen Standard der linksventrikulären Endomyokardbiopsie in einem Modellversuch. Wir entwickelten und überprüften mögliche Verbesserungen hinsichtlich ihrer Sicherheit und Punktionsgenauigkeit, indem wir eine steuerbare Schleuse und ein 3D Mapping-System zum Einsatz brachten.
Hintergrund: Die Endomyokardbiopsie gilt als Goldstandard zur Diagnostik von Myokarditiden und Kardiomyopathien, da sie histochemische, histologische und molekularbiologische Analysen ermöglicht, die für eine korrekte Diagnose und Therapie wichtig sind. Die Methodik hat eine verhältnismäßig geringe Sensitivität und einen niedrigen negativen prädiktiven Wert, da das Myokard derzeit unter Röntgendurchleuchtung biopsiert wird, ohne eine genaue Orientierung im dreidimensionalen Raum oder eine Kenntnis der z.T. diskontinuierlich betroffenen Myokardareale zu haben (sogenannter „sampling error“).
Methoden: Wir testeten die Steuerbarkeit und die Punktionsgenauigkeit der Endomyokardbiopsie im Modellversuch, indem wiederholt Biopsien von acht verschiedenen linksventrikulären Herzregionen genommen werden. In einer dreiarmigen Studie optimierten wir zum einen die invasiv-apparative Ausrüstung und zum anderen die verfügbare Bildgebungsmodalität. Der Kontrollversuch I repräsentiert eine Analyse des aktuellen Standards, da hier Biopsien mit konventionellen Führungskathetern unter Röntgendurchleuchtung erfolgen. Der Kontrollversuch II untersucht, ob mittels einer steuerbaren Schleuse unter konventioneller Bildgebung eine Verbesserung erzielt werden kann. Im dritten Teil der Studie wurde die Röntgendurchleuchtung durch ein 3D elektroanatomisches Mapping-System ersetzt. Hiermit kann erstmalig die Machbarkeit der Navigation einer steuerbaren Schleuse in einem 3D Mapping-System geprüft werden.
Ergebnisse: Jeder der eingesetzten konventionellen Führungskatheter ist für die Biopsie einer bestimmten Herzregionen geeignet, jedoch hat die konventionelle Methodik bei wiederholten Messungen allgemein eine niedrige Präzision (JR 4.0 Führungskatheter: 17,4 ± 4 mm, AL 1.0 Führungskatheter: 18,7 ± 5,7 mm, EBU 3.5 Führungskatheter: 18,3 ± 8,2 mm). Durch den Einsatz der neu entwickelten steuerbaren Schleuse konnten einige der gewünschten Stellen zwar korrekter biopsiert werden, aber eine allgemein sichere Ansteuerung aller Positionen war damit noch nicht möglich (9,5 ± 5,8 mm). Die bildliche Darstellung der steuerbaren Schleuse im 3D Mapping-System gelang sehr gut, die Biopsiezange konnte mit der Schleuse leicht und mit einer höheren Präzision an fast alle gewünschten Herzregionen navigiert werden (3,6 ± 2 mm).
Fazit: Die hier vorgelegte Machbarkeitsstudie zeigt, dass der Einsatz einer neuentwickelten steuerbaren Schleuse in Kombination mit einem 3D Mapping-System möglich und erfolgversprechend ist. Die Ergebnisse der Biopsien im elektroanatomischen Mapping-Versuch wiesen im Mittel eine deutlich geringere Abweichung beim wiederholten Ansteuern der jeweilig gewünschten Zielregion auf. Mittels der neuentwickelten Technik kann somit die Endomyokardbiopsie im Vergleich zum Standardverfahren präziser und mit einer potentiell höheren Patientensicherheit durchgeführt werden.
Fahr- und Verkehrssimulation sind neben Studien mit realen Fahrzeugen die gängigen Methoden der empirischen Verkehrswissenschaft. Während sich die Fahrsimulation mit dem Erleben und Verhalten von Fahrern beschäftigt, untersucht die Verkehrssimulation das gesamte Verkehrssystem. Der Bereich zwischen diesen Polen „Fahrer“ und „Verkehr“, in dem Fahrer aufeinander treffen und miteinander interagieren, ist angesichts der Bedeutung sozialer Prozesse für das Erleben und Verhalten ein wichtiger Aspekt. Allerdings wurde dieser Bereich in der Verkehrswissenschaft bisher nur unzureichend abgebildet. Auch in der Fahr- und Verkehrssimulation wurde dieser Aspekt bislang weitgehend vernachlässigt.
Um diese Lücke zu schließen, wurde mit der Pulksimulation eine neue Versuchsumgebung entwickelt. Sie besteht aus miteinander vernetzten Fahrsimulatoren und ermöglicht es, Interaktionsfragestellungen zu untersuchen. Jedoch bringt die Anwendung der Pulksimulation neue Anforderungen an den Untersucher mit sich, die bei der Fahr- bzw. Verkehrssimulation nicht notwendig sind und für die Pulksimulation neu entwickelt werden müssen. Das Ziel der vorliegenden Arbeit ist, diese Methode zur Untersuchung verkehrspsychologischer Fragestellungen weiterzuentwickeln, zu prüfen und zu etablieren.
In ersten Untersuchungsansätzen werden in acht Teilstudien die grundlegenden methodischen Besonderheiten der Pulksimulation am Beispiel des Folgefahrens und des Kreuzens betrachtet. Hierbei wird auch stets der Vergleich zu den bisher genutzten Versuchsumgebungen Einzelfahrsimulation und Verkehrssimulation gezogen. Folgende Fragstellungen wurden im Rahmen dessen beantwortet:
(1) Wie unterscheidet sich eine Pulkfahrt von einer Einzelfahrt?
(2) Welchen Einfluss haben nachfolgende Fahrzeuge im Pulk?
(3) Welche Effekte haben Positionierungen im Pulk?
(4) Wie unterscheiden sich reale Fahrer und Modelle im Pulk?
(5) Wie wirkt sich die Einführung einer Nebenaufgabe auf den Pulk aus?
(6) Wie wirken sich verschiedene Abstandsinstruktionen aus?
(7) Mit welchen Parametern kann der Pulk beschrieben werden?
(8) Wie kann das Verhalten des Pulks an Kreuzungen untersucht werden?
Schließlich werden zwei Anwendungsbeispiele der Pulksimulation zu aktuell relevanten Themen aufgezeigt. In der ersten Untersuchung wird ein Gefahrenwarner evaluiert, der vor Bremsungen vorausfahrender Fahrzeuge warnt. Während Fahrer direkt hinter dem bremsenden Fahrzeug vom System nicht profitieren, steigt der Nutzen des Systems mit zunehmender Positionierung im Pulk an.
In einer zweiten Studie wird ein Ampelphasenassistent untersucht. Dieser informiert den Fahrer während der Annäherung an eine Ampel über die optimale Geschwindigkeit, mit der diese Ampel ohne Halt bei Grün durchfahren werden kann. Um die Auswirkungen des Systems auf den nicht-assistierten Umgebungsverkehr bestimmen zu können, werden verschiedene Ausstattungsraten innerhalb des Pulks eingeführt. Mit diesem Untersuchungsansatz können gleichzeitig Effekte des Systems auf die assistierten Fahrer (z. B. Befolgungsverhalten), die nicht-assistierten Fahrer (z. B. Ärger) sowie das Verkehrssystem (z. B. Verkehrsfluss) bestimmt werden. Der Ampelphasenassistent resultiert in einem ökonomischeren Fahrverhalten der assistierten Fahrer, erhöht aber gleichzeitig in gemischten Ausstattungsraten den Ärger der nicht-assistierten Fahrer im Verkehrssystem. Erst bei Vollausstattung entwickelt sich dieser negative Effekt zurück.
Die in den Anwendungsbeispielen berichteten Phänomene sind durch Untersuchungen in einer Einzelfahrsimulation oder Verkehrssimulation nicht beobachtbar. Insbesondere für die Untersuchung von Fragen, in denen soziale Interaktionen mit anderen Fahrern eine Rolle spielen, zeichnet sich die Pulksimulation in besonderer Weise aus. Hierfür liefert die Anwendung in der Pulksimulation zusätzliche Informationen und zeigt somit, dass die Pulksimulation das Methodeninventar in der Verkehrswissenschaft effektiv ergänzt. Sie stellt zum einen eine Erweiterung der Fahrsimulation um den Faktor „Verkehr“ und zum anderen eine Erweiterung der Verkehrssimulation um den Faktor „Mensch“ dar und wird so zu einem zentralen Bindeglied beider Versuchsumgebungen.
Darüber hinaus erlaubt die Pulksimulation die Modellierung von Interaktionsverhalten im Straßenverkehr, was bisher nicht bzw. nur unter größtem Aufwand realisierbar war. Hierdurch können die Modelle der Fahr- und Verkehrssimulation weiterentwickelt werden.
Mit den in dieser Arbeit neu entworfenen Parametern werden Kenngrößen zur Verfügung gestellt, die Variationen bezüglich Quer- und Längsführung auch auf Ebene des Pulks abbilden können. Weitere neu entwickelte Parameter sind in der Lage, Interaktionen über den Zeitverlauf zu beschreiben. Diese Parameter sind notwendig für den Einsatz der Pulksimulation in zukünftigen Untersuchungen.
Zusammenfassend wurde in der vorliegenden Arbeit die Methodik der Pulksimulation für den gesamten Anwendungsprozess von der Fragestellung bis hin zur Interpretation der Ergebnisse weiterentwickelt. Der Mehrwert dieser Methode wurde an aktuellen und bisher nicht untersuchbaren Fragestellungen belegt und somit die Validität der Pulksimulation gestärkt. Die vorgestellten Untersuchungen zeigen das große Potenzial der Pulksimulation zur Bearbeitung von Fragen, die auf der Interaktion verschiedener Verkehrsteilnehmer basieren. Hierdurch wird erstmals die Möglichkeit geschaffen, soziale Interaktionen über den Zeitverlauf in die Fahrermodelle der Verkehrssimulation zu integrieren. Damit ist der Brückenschlag von der Fahr- zur Verkehrssimulation gelungen.
Schmerz ist eine klassische Komponente von Entzündungsreaktionen. Im Rahmen des Entzündungsgeschehens werden Zytokine und Chemokine freigesetzt, die Leukozyten zum Entzündungsort rekrutieren. Über die Freisetzung weiterer proalgetischer Mediatoren tragen diese zur Aktivierung und Sensitivierung von Nozizeptoren und damit zur Schmerzentstehung bei. Das Monozyten-rekrutierende Chemokin CCL2 verursachte in Verhaltensexperimenten eine Hyperalgesie bei Ratten. Die Hyperalgesie war durch den Cox-2 Inhibitor Parecoxib vollständig reversibel. Daher wurde in dieser Arbeit die Rolle von Monozyten und Prostaglandinen in der Entstehung dieser Hyperalgesie untersucht. Dazu wurde in vitro die Cox-2 Expression und die Prostaglandin-Bildung in humanen Monozyten und Peritonealmakrophagen der Ratte nach CCL2 Stimulation bestimmt. Zudem wurde in vivo die Cox-2 Expression im Rückenmark und in der Rattenpfote nach CCL2 Injektion in die Pfote untersucht.
Die Ergebnisse von bisherigen neuropathologischen Studien konnten die wichtige Bedeutung bestimmter Hirnstammareale bei der Pathogenese der Alzheimer-Erkrankung belegen. Zu diesen Strukturen gehören vor allem die Vaguskerngebiete, die in Anbetracht der zeitlich-topographischen Entwicklungsdynamik der AD als frühe Prädilektionsstellen für die Alzheimer-typischen Pathologien fungieren könnten. Eine Ausbreitung dieser Pathologie nach kranial, wie etwa ins limbische System und in andere kortikale Hirnregionen, erfolgt erst in späteren Krankheitsstadien. Deshalb wäre es im Hinblick auf die Früherkennung einer AD von großem diagnostischem Nutzen, eine geeignete nicht-invasive Methode zum Nachweis der Hirnstammaffektion zu entwickeln. Diese könnte insbesondere im Rahmen eines Screeningprogrammes für MCI-Patienten, die ohnehin ein stark erhöhtes Risiko für Entwicklung einer AD aufweisen, eingesetzt werden. In Anbetracht solcher makroskopisch oft nicht sichtbarer pathologischer Veränderungen im Hirnstamm, die meist der Nachweisbarkeit durch die strukturelle moderne Bildgebung entgehen, ist die Technik der Vagus-evozierten Potentiale (VSEP) wegen ihrer exzellenten zeitlichen Auflösung möglicherweise in der Lage, durch Erfassung der Funktionsstörungen der Vagus-Kerngebiete, eine Affektion dieser Strukturen festzustellen. Eine solche Funktionsstörung sollte sich dann als eine Latenzverzögerung der Potentiale darstellen.
Zu diesem Zweck wurden in dieser Arbeit insgesamt 52 Personen (13 Alzheimer-Patienten, 12 MCI-Patienten und 27 gesunden Probanden) in einer ersten Sitzung neuropsychologisch und in der zweiten Sitzung elektrophysiologisch untersucht, wobei in der ersten Sitzung zusätzlich eine ausführliche Anamnese erhoben wurde. In der zweiten Sitzung wurde dann nach elektrischer Stimulation des Hautastes des N. Vagus am äußeren Gehörgang auf beiden Seiten mittels 2 haardünnen Kupferdrähten, jeweils die VSEP in Form der Fernfeldpotentiale über EEG-Elektroden abgeleitet.
Die Stimulation erfolgte analog zu den vorangegangenen Arbeiten mit einer Stimulationsstärke von 8mA, einer Stimulationsdauer von 0,1 msec und einem Interstimulusintervall von 2 sec, zuerst auf der rechten und danach auf der linken Seite mit 100 Wiederholungen pro Seite, wobei nach 50 artefaktfreien Kurven in einer Stimulationspause von 5 sek. die Stimulationselektroden in ihrer Polarisierung manuell gedreht wurden. Da es bisher keine Standarddefinition für die frühestmögliche Latenz (P1) bei der Ableitung der VSEP existiert, wurde in dieser Arbeit die Auswertung der VSEP mit zwei Methoden durchgeführt, wobei die erste Latenz P1 im ersten Ansatz abhängig und im zweiten Ansatz unabhängig von der Potentialamplitude definiert wurde. Demnach konnten je nach Analysemethode unterschiedliche Anzahlen an auswertbaren Potentialkurven eingeschlossen werden.
Die dieser Arbeit zugrunde liegende Hypothese, dass die VSEP bei Alzheimer-Patienten sich gegenüber MCI-Patienten und Kontrollpersonen durch eine Latenzverzögerung kennzeichnen, konnte in der primären statistischen Auswertung mittels Bi- und Univarianzanalyse (3x2 und 3x1 ANOVA) nicht bestätigt werden, und zwar weder im amplitudenabhängigen noch im amplitudenunabhängigen Modul. Eine der möglichen Erklärungen hierfür ist die geringe Anzahl an untersuchten Patienten, sodass die zukünftigen Studien mit größeren Subgruppen erfolgen sollen. Erst nach statistischer Analyse von hemisphärenspezifischen Mittelwerten und zwar nur für die rechte Hemisphäre konnte ausschließlich für P2 in der amplitudenunabhängigen Auswertung ein hypothesenkonformes Ergebnis erreicht werden. Eine Latenzverzögerung in der MCI-Gruppe gegenüber Kontrollpersonen konnte in den statistischen Analysen nicht gezeigt werden.
In der ersten Sitzung wurde bei allen Patienten und Probanden mittels CERAD-Testbatterie der neuropsychologische Status erhoben. Anschließend wurden die Ergebnisse der VSEP aus der amplitudenunabhängigen Auswertung und CERAD miteinander verglichen, woraus sich eine signifikant negative Korrelation zwischen den einzelnen Testabschnitten (Semantische Flüssigkeit, Lernen und Speichern einer Wortliste sowie Figurenabzeichnung) und den Latenzzeiten ergab. Außerdem wurde zwecks Screening und besserem Vergleich mit den Voruntersuchungen im Rahmen der klinischen Betreuung der Patienten, der kurze neuropsychologische Test DemTect durchgeführt.
Für die Weiterentwicklung der Methode der VESP ist es unerlässlich, mittels weiteren Studien die Entwicklung der evozierten Potentiale bei den bereits untersuchten Personen im Verlauf zu beobachten. Die Dynamik der MCI mit erhöhtem Risiko zur Entwicklung einer AD macht es verständlich, dass eine solche Verlaufskontrolle insbesondere in dieser Gruppe sehr erstrebenswert ist. Parallel zu den klinischen Verlaufskontrollen, die in der Gedächtnisambulanz der Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie der Universität Würzburg bei nahezu allen MCI- und AD-Patienten durchgeführt wurden, wurde zur Evaluation der Veränderungen der VSEP für die in dieser Studie eingeschlossenen Patienten ein 12-monatiges Zeitintervall für die Verlaufsmessung der VSEP gewählt. Diese Verlaufsmessung wurde nach dem Abschluss dieser Arbeit von der Arbeitsgruppe von Thomas Polak et al. in der oben genannten Klinik durchgeführt und wird eigenständig beschrieben.
Solche Verlaufskontrollen können es ermöglichen, im Falle des Übergangs der MCI in AD frühzeitig mit aktuellen symptomatischen Behandlungen und insbesondere zukünftig zu entwickelnden neuroprotektiven Therapien zu beginnen. Hierdurch bestehen prinzipiell größere Erfolgsaussichten, die Progression der irreversiblen Nervenzellschädigung im Rahmen der neurodegenerativen Erkrankung zu verlangsamen oder gar aufzuhalten.
Ausgangspunkt war die aus der Fulleren-Chemie bekannte Prato-Reaktion, bei welcher das Ylid in situ aus einer Aminosäure und einem Aldehyd generiert wird und anschließend mit den C=C-Bindungen des Fullerens reagiert. Diese Funktionalisierungsmethode wurde nun auf Detonationsnanodiamant übertragen.
Um zusätzliche π-Bindungen auf der Oberfläche der Diamantteilchen zu schaffen, wurden diese i.Vak. bei 750 °C ausgeheizt (ND750). Für die Immobilisierung wurde die Aminosäure Sarcosin gewählt. Dodecanal und 2,4,6-Tris(hexadecyloxy)-benzaldehyd dienten jeweils als Reaktionspartner.
Da bereits in früheren Studien gezeigt wurde, dass bei dieser Reaktion der Aldehyd selbst unspezifisch an den Diamanten binden kann und so möglicherweise Teile der Oberfläche für die spezifische Funktionalisierung blockiert, wurden für die weitere Betrachtung Azomethinylidvorstufen synthetisiert, die selbst nicht in der Lage sind, mit der Diamantoberfläche zu reagieren. Diesen Zweck erfüllten N-heterocyclische Iminiumbromide, die durch Umsetzung des jeweiligen Heteroaromaten mit Bromessigsäureethylester bzw. Bromacetonitril erhalten wurden.
Alle Ylidvorstufen wurden in Gegenwart von NEt3 in situ zu den gewünschten Dipolen umgesetzt und auf Nanodiamant immobilisiert.
Neben ND750 wurden auch oxidierter und unbehandelter Diamant (NDox bzw. NDunb) sowie Diamant, der bei 900 °C i.Vak. ausgeheizt wurde (ND900), als Substrat eingesetzt, um den Einfluss der Oberflächenterminierung und des Graphitisierungsgrades auf das Reaktionsverhalten zu studieren. Durch Raman- und IR-Spektroskopie wurde gezeigt, dass NDox sehr viele Carbonylgruppen und wenig C=C-Doppelbindungen auf seiner Oberfläche trägt. Durch das Ausheizen i.Vak wurden hingegen zusätzliche π-Bindungen erzeugt, die bei ND900 bereits ausgedehntere Bereiche mit sp2-Kohlenstoff bilden.
Der Erfolg der Immobilisierung wurde IR-spektroskopisch nachgewiesen. Die Oberflächenbeladung aller hergestellten Diamantaddukte wurde thermogravimetrisch bestimmt.
NDox immobilisierte unabhängig vom Reaktionspartner stets die wenigsten Moleküle auf seiner Oberfläche. Deren Terminierung wird von Carbonylgruppen dominiert, die grundsätzlich schlechtere Dipolarophile darstellen als C=C-Doppelbindungen.
Die übrigen Diamantmaterialien NDunb, ND750 und ND900 ließen keine eindeutige Tendenz bezüglich ihrer Reaktionsfreudigkeit erkennen. Die Oberfläche des unbehandelten Diamanten NDunb besitzt sowohl Carbonylfunktionen als auch einzelne Bereiche graphitischen Kohlenstoffs. Diese konkurrieren vermutlich um die angebotenen Dipole, sodass die resultierenden Oberlächenbeladungen ihrer Konjugate in einem mittleren Wertebereich liegen. Durch das Ausheizen i.Vak. werden viele Carbonylgruppen unter Ausbildung weiterer C=C-Doppelbindungen von der Oberfläche entfernt. Bei 750 °C sind diese räumlich sehr beschränkt, stark gekrümmt und daher sehr reaktiv. Trotzdem erreichte ND750 selten eine Oberflächenbelegung, welche jene von NDunb übertrifft. Die π-Bindungen auf seiner Oberfläche sind in Fünf- und Sechsringe eingebaut, um die gekrümmte Struktur zu realisieren. Wahrscheinlich besteht für die Cycloaddition an Nanodiamant eine dem Fulleren C60 ähnliche Regioselektivität bezüglich der angegriffen Doppelbindung. Somit stehen nicht alle frisch erzeugten C=C-Bindungen für die Reaktion zur Verfügung.
Bei 900 °C ist die Graphitisierung der Diamantoberfläche weiter fortgeschritten. Es entstehen nicht nur neue C=C-Bindungen, sondern bereits gebildete Kohlenstoffkappen beginnen zu koaleszieren, wobei ausgedehntere sp2-Bereiche mit geringerer Krümmung und somit verminderter Reaktivität entstehen. So nimmt die Oberflächenbeladung der meisten ND900-Konjugate nicht weiter zu.
Wie aus den Ergebnissen dieser Arbeit hervorgeht, ist die Funktionalisierung von Nanodiamantpartikeln nicht trivial. Sowohl die Oberflächenbeschaffenheit des Diamantmaterials als auch die Struktur des eingesetzten Azomethinylids beeinflussen das Immobilisierungsverhalten.
Die vorliegende Arbeit zeigt aber, dass die 1,3-dipolare Cycloaddition von Azomethinyliden eine nützliche Methode zur Funktionalisierung von Nanodiamantpartikeln ist. Sie ermöglicht des Weiteren die simultane Einführung mehrerer unterschiedlicher funktioneller Gruppen. Dies macht die untersuchte Reaktion zu einem wertvollen Werkzeug für die Herstellung funktionalisierter Nanodiamantmaterialien, z. B. für biomedizinische Anwendungen.
In dieser Arbeit wurde ein geeigneter Zugang zu TBTQ-Derivaten erarbeitet, der eine paarweise Funktionalisierung der aromatischen Positionen in direkter Nachbarschaft zum Triquinacen-Kern zulässt. Hierfür wurde sowohl die doppelte Cyclodehydratisierungsroute als auch die dreifache Cyclisierungsvariante zur Darstellung von Tribenzotriquinacenen dahingehend modifiziert, dass die Einführung der „ortho“-Substituenten bereits zu Beginn der Synthese mit den Edukten erfolgte, da eine nachträgliche Funktionalisierung der gewünschten Positionen am TBTQ aufgrund sterischer Faktoren nicht möglich ist. Es wurden unter anderem die ersten literaturbekannten „ortho“-substituierten TBTQ-Derivate erhalten und vollständig charakterisiert.
Zur Erweiterung des aromatischen Systems wurden außerdem Benzodiphenanthrenotriquinacen-Vorstufen synthetisiert, die im Falle der doppelten Cyclodehydratisierungsroute Acenapthylen-Derivate lieferten. Benzodiphenanthrenotriquinacen konnte mit Hilfe der dreifachen Cyclisierungsvariante synthetisiert werden.
Die Zielmoleküle sollen als Vorstufen für überbrückte aromatisch anellierte Triquinacene dienen.
Trotz weltweiter kostenlos zur Verfügung stehender multi drug therapy und Eradikationsbemühungen der WHO liegt die Leprainzidenz seit fünf Jahren bei etwa 250 000 Neuerkrankungen pro Jahr. Der massive Abfall der Prävalenz seit 1985 ist zum einen rechnerisch und durch die Art der Datenerhebung bedingt (s. 5.1.1), zum anderen lässt sie keine Rückschlüsse auf die Transmissionsereignisse, also die Aktivität der Krankheit zu. Dazu dient die Inzidenz, die nur unverhältnismäßig gesunken ist (s. 2.4.1). Für eine effektive Bekämpfung der Lepra muss jedoch eine Reduktion der Neuerkrankungen erreicht werden. Bekannt ist, dass nur ein Bruchteil der mit M.leprae exponierten Individuen eine manifeste Krankheit entwickelt. Die Suche nach Wirtsfaktoren für eine Lepraerkrankung ist für gezielte Präventions- und Prophylaxe-Maßnahmen, die Neuerkrankungen verhindern sollen, demnach von großer Bedeutung. In der vorliegenden Arbeit werden die Ergebnisse einer Literaturrecherche zum Thema "Talglipide als Wirtsfaktoren für M.leprae" präsentiert und eine Methode zur Talganalyse entwickelt. Anhand wissenschaftlicher Publikationen wurde der aktuelle Stand der Forschung in den verschiedenen Bereichen dieser Hypothese reviewartig dargestellt. Der aktuelle Erkenntnisstand hinsichtlich der Lepraübertragung ist vereinbar mit mehreren Übertragungswegen, wobei die Tröpfchen- und die Hautübertragung favorisiert werden (s. 2.5.1). Die Interpretation der Genomanalysen von M.leprae hat in Kombination mit früheren biochemischen Erkenntnissen Aufschluss über die metabolischen Fähigkeiten von M.leprae gegeben. M.leprae besitzt ein reduktives "Minimalgenom", das sich an die intrazelluläre Nische, in der es lebt, außerordentlich adaptiert hat. Der Verlust wichtiger Kohlenstoffquellen und eine stark eingeschränkte Atmungskette stehen im Gegensatz zu den fast vollständig erhaltenen anabolen und katabolen Stoffwechselwegen der Lipide. Sowohl für die Zellwandsynthese als auch zur Energieproduktion ist M.leprae auf wirtsbezogene Lipide angewiesen. Freie Fettsäuren werden dabei veresterten Fettsäuren vorgezogen (s. 5.2.1.1). Epidemiologische Erkenntnisse stehen ebenfalls in Einklang mit unserer Lipidhypothese. Als Ursache für das Clustering von Leprafällen in Haushalten kommen sowohl genetische als auch zufällig verteilte Faktoren sowie ein auf den gesamten Haushalt wirkender "Haushaltsfaktor" in Frage. Als genetischer Faktor, der die Talglipidzusammensetzung beeinflusst, wären Enzymaktivitäten für die Squalen- bzw. Sapiensäuresynthese denkbar (vgl. 5.2.1.3). Einen in der Bevölkerung zufällig verteilten Suszeptibilitätsfaktor könnte die residente Keimflora der Haut darstellen, die für die Menge der im Talg vorkommenden freien Fettsäuren verantwortlich ist (s. 5.2.1.2). Als möglicher Haushaltsfaktor kommt "Armut" in Betracht, der nachgewiesenermaßen mit schlechter Körper- und Kleidungshygiene einhergeht (s. 5.2.2.3). In Kombination mit einer vermutlich ebenfalls mit Armut assoziierten häufigeren kutanen Verletzung durch Parasiten und Mücken könnte dies eine kutane Schmierinfektion mit M.leprae begünstigen. Für eine Schmierinfektion über kontaminierte Gegenstände spricht auch die gute extrakorporale Überlebensfähigkeit des Erregers und der Nachweis von M.leprae in Bodenproben (s. 5.2.2.2). Die epidemiologischen Daten zu Geschlechterverhältnis und Infektionszeitpunkt lassen ebenfalls eine Rolle der Talglipide als Wirtsfaktoren für eine Lepraerkrankung vermuten (s. 5.2.1.2). Auf Basis der Erkenntnis, dass Lipide und insbesondere Talglipide als Wirtsfaktoren für M.leprae in Betracht kommen, wurde zu diesbezüglich relevanten Talgkomponenten recherchiert. Als trophischer Wirtsfakor kommen die individuell in unterschiedlichen Mengen vorliegenden freien Fettsäuren des Sebums in Betracht. Die Menge an Squalen und Sapiensäure im Talg hat nachgewiesenermaßen erheblichen Einfluss auf die Barrierefunktion der Haut gegen bakterielle Erreger (s. 5.2.1.3). Es wurde folglich eine auf Dünnschicht- und Gaschromatografie beruhende Methode zur Quantifizierung dieser Talgbestandteile entwickelt (s. 4.6). Die Probenentnahme erfolgt mittels Sebutape, was eine bewährte, reproduzierbare und auch unter tropischen Bedingungen leicht anwendbare Methode darstellt.
Entwicklung CD40/DC-stimulierender rekombinanter Proteine mit Tumorantigen-restringierter Aktivität
(2013)
Dendritische Zellen (DC) sind spezielle Antigen-präsentierende Zellen und daher oft auch in die körpereigene Bekämpfung von Tumoren involviert. Über das CD40-CD40L-System stellen sie ein Ziel in der Tumorimmuntherapieforschung dar. CD40-spezifische Antikörper bewirken jedoch aufgrund der systemischen CD40-Aktivierung schwere Nebenwirkungen. Ziel dieser Arbeit war es deshalb, mit Hilfe von Tumor-spezifischen scFvs (antigenbindenden Einzelkettenfragmenten) Fusionsproteine zu generieren, die ausschließlich bzw. stark bevorzugt Tumor-lokalisiert dendritische Zellen aktivieren. In dieser Arbeit wurde anhand von Kokulturen von Tumorantigen-positiven Tumorzellen mit dendritischen Zellen gezeigt, dass dies möglich ist. Das hierfür generierte Fusionsprotein anti-CD20-Flag-CD40L führte CD20-restringiert, d.h. bei gleichzeitiger Bindung von CD20-positiven Tumorzelllinien (B-Zelllinien) zu einer deutlich verstärkten Aktivierung der DC. Mit einem solchen Fusionsprotein ist nun grundsätzlich die Möglichkeit vorhanden, DCs Tumorantigen-abhängig, das heißt im Tumorgewebe selbst verstärkt zu stimulieren. Die auf diese Weise aktivierten DCs können nun aufgrund der induzierten Veränderungen (IL-12-Produktion, Hochregulation kostimulierender Moleküle) Tumor-lokalisiert eine lokale, auf den Tumor begrenzte Immunantwort auslösen. Auf diese Weise sollte es möglich werden, Nebenwirkungen einer systemischen CD40-Aktivierung zu vermeiden bzw. zu reduzieren. Zudem stellt der Einsatz von anti-CD20-Flag-CD40L möglicherweise sogar eine Option zur Behandlung maligner B-Zell-Lymphome sowie Rituximab-resistenter Lymphome dar.
Interkomprehension im gegenwärtigen Westeuropa : Internationalismen im romanischen Grundwortschatz
(2013)
Die Arbeit untersucht 2500 Wörter des italienischen Grundwortschatzes in einem fünfsprachigen Vergleich. Sie ergänzt damit die an gleicher Stelle erschienene Magisterarbeit „Internationalismen im Grundwortschatz: Untersuchungen zur romanistischen Mehrsprachigkeitsdidaktik” von Anja Büttner (2012). Hier werden nun die Ergebnisse beider Untersuchungen zusammengefasst. Dabei werden erstmalig konkrete Zahlen zur Beantwortung der Frage vorgestellt, wie viele Wörter z.B. ein deutscher Muttersprachler, der Französisch gelernt hat und nun italienische Texte lesen will, tatsächlich lernen muss, um die 5000 häufigsten Wörter erkennen und damit durchschnittliche Texte nahezu vollständig verstehen zu können.
In der vorliegenden Arbeit wurden die Expressionshäufigkeiten von MAGE-A-Antigenen, E -Cadherin, Laminin-5-gamma-2, MMP2 und MMP9 in Plattenepithelkarzinomen im Kopf- und Halsbereich untersuchen. Hierbei findet der Vergleich zwischen Primärtumoren und korrespondierenden Lymphknotenmetastasen besondere Beachtung. Um die Hypothese zu verifizieren, dass die o.g. Parameter einen signifikanten Einfluss auf die Progression und Metastasierung haben, wird der Zusammenhang zwischen den in der vorliegenden Arbeit gewonnenen Ergebnissen und diversen klinischen Parametern mittels Korrelationsanalyse untersucht.
Knochendefekte, die in der Behandlung von gutartigen Knochentumoren und tumorähnlichen Läsionen entstehen, stellen ein klinisches Problem mit limitierten Therapieoptionen dar. In der Regel werden diese Defekte mit autologem Knochen aufgefüllt. Die Gewinnung von autologem Knochen, z. B. vom Beckenkamm ist jedoch quantitativ limitiert und häufig mit Komplikationen verbunden. Aus diesem Grund wird versucht, synthetische Knochenersatzmaterialien mit ähnlichen Eigenschaften, wie denen des autologen Knochens, zu entwickeln. In der vorliegenden prospektiven Studie wurde die Anwendung einer biphasischen Keramik aus 60% Hydroxylapatit und 40% beta-Tricalciumphosphat in Verbindung mit verdünntem Fibrinkleber für die Therapie von gutartigen Knochentumoren und tumorähnlichen Läsionen bei 51 Patienten untersucht. Hierfür wurden die Röntgenbilder analysiert und das Resorptionsverhalten beurteilt. Eine komplette Resorption wurde anhand der radiologischen Verläufe in keinem Fall beobachtet. Die günstigsten Voraussetzungen für eine Resorption wurde bei kleinen Defekten (< 10,5 cm³) beobachtet (p < 0,05). Die übrigen Einflussgrößen zeigten nach einer Nachuntersuchungszeit von bis zu 56 Monaten keine statistisch signifikanten Unterschiede. In der histologischen Untersuchung eines Präparates bei einer Revision wurde Knochenneubildung auf dem Knochenersatzmaterial nachgewiesen. In diesem Fall war das Knochenersatzmaterial noch nachweisbar. Die Verwendung des Materials ist klinisch einfach und sicher. Die aufgetrete-nen Komplikationen entsprechen in ihrer Häufigkeit den zu erwartenden postoperativen Komplikationen und sind mit den Angaben der Literatur vergleichbar. Es wurden keine postoperativen Frakturen oder Beeinträchtigung des Längenwachstums von Röhrenknochen beobachtet. In einem Fall musste aufgrund eines intraossären Ganglions eine operative Revision erfolgen. In der histologischen Aufarbeitung dieser Biopsie konnte Knochenneubildung und Osseointegration sowie eine partielle Resorption des Knochenersatzmaterials nachgewiesen werden. Die Verwendung des Knochenersatzmaterials wird von den Patienten überwiegend als positiv beurteilt. Zusammenfassend ist das verwendete Knochenersatzmaterial eine einfach und sicher anzuwendende Alternative zu autologem Knochen in der Therapie von gutartigen Knochentumoren und tumorähnlichen Läsionen.
Das Signal-zu-Rausch-Verhältnis (SNR) stellt bei modernen Bildgebungstechniken in der Magnetresonanz-Tomographie heutzutage oftmals die entscheidende Limitation dar. Eine Verbesserung durch Modifikation der Hardware ist kostspielig und führt meistens zu einer Verstärkung anderer Probleme, wie zum Beispiel erhöhte Energiedeposition ins Gewebe. Im Gegensatz dazu ist Dichtegewichtung eine Methode, die eine SNR-Erhöhung durch Modifikation der Aufnahmetechnik ermöglicht. In der MR-Bildgebung erfolgt oftmals eine retrospektive Filterung des aufgenommenen Signalverlaufs, beispielsweise zur Artefaktreduktion. Damit einhergehend findet eine Veränderung der Modulationstransferfunktion (MTF) bzw. ihrer Fouriertransformierten, der räumlichen Antwortfunktion (SRF), statt. Optimales SNR wird nach dem Matched Filter-Theorem erzielt, wenn die nachträgliche Filterung dem aufgenommenen Signalverlauf proportional ist. Dies steht dem Ziel der Artefaktreduktion entgegen. Bei Dichtegewichtung steht durch nicht-kartesische Abtastung des k-Raums mit der k-Raum-Dichte ein zusätzlicher Freiheitsgrad zur Verfügung. Dieser ermöglicht es, im Falle eines konstanten Signalverlaufs eine gewünschte MTF ohne Filterung zu erreichen. Bei veränderlichem Signalverlauf kann ein SNR Matched Filter angewendet werden, dessen negative Einflüsse auf die MTF durch Dichtegewichtung kompensiert werden. Somit ermöglicht Dichtegewichtung eine vorgegebene MTF und gleichzeitig ein optimales SNR. In der vorliegenden Arbeit wurde Dichtegewichtung erstmals bei den schnellen Multi-Echo-Sequenzen Turbo-Spin-Echo und Echoplanar-Bildgebung (EPI) angewendet. Im Gegensatz zu bisherigen Implementierungen muss hier der Signalabfall durch T2- bzw. T2*-Relaxation berücksichtigt werden. Dies führt dazu, dass eine prospektiv berechnete dichtegewichtete Verteilung nur bei einer Relaxationszeit optimal ist. Bei Geweben mit abweichenden Relaxationszeiten können sich wie auch bei den kartesischen Varianten dieser Sequenzen Änderungen an SRF und SNR ergeben. Bei dichtegewichteter Turbo-Spin-Echo-Bildgebung des Gehirns konnte mit den gewählten Sequenzparametern ein SNR-Vorteil von 43 % gegenüber der kartesischen Variante erzielt werden. Die Akquisition wurde dabei auf die T2-Relaxationszeit von weißer Substanz optimiert. Da die meisten Gewebe im Gehirn eine ähnliche Relaxationszeit aufweisen, blieb der visuelle Gesamteindruck identisch zur kartesischen Bildgebung. Der SNR-Gewinn konnte in der dichtegewichteten Implementierung zur Messzeithalbierung genutzt werden. Dichtegewichtete EPI weist eine hohe Anfälligkeit für geometrische Verzerrungen, welche durch Inhomogenitäten des Hauptmagnetfeldes verursacht werden, auf. Die Verzerrungen konnten erfolgreich mit einer Conjugate Phase-Methode korrigiert werden. Dazu muss die räumliche Verteilung der Feldinhomogenitäten bekannt sein. Dazu ist zusätzlich zur eigentlichen EPI-Aufnahme die zeitaufwendige Aufnahme einer sogenannten Fieldmap erforderlich. Im Rahmen dieser Arbeit konnte eine Methode entwickelt werden, welche die zur Erlangung einer Fieldmap notwendige Aufnahmedauer auf wenige Sekunden reduziert. Bei dieser Art der Fieldmap-Aufnahme müssen jedoch durch Atmung hervorgerufene Effekte auf die Bildphase berücksichtigt werden. Die Fieldmap-Genauigkeit kann durch Aufnahme unter Atempause, Mittelung oder retrospektiver Phasenkorrektur erhöht werden. Für die gewählten EPI-Sequenzparameter wurde mit Dichtegewichtung gegenüber der kartesischen Variante ein SNR-Gewinn von 14 % erzielt. Anhand einer funktionellen MRT (fMRI)-Fingertapping-Studie konnte demonstriert werden, dass die SNR-Steigerung auch zu einer signifikant erhöhten Aktivierungsdetektion in Teilen der Hirnareale führt, die bei der Fingerbewegung involviert sind. Die Verwendung von zusätzlicher EPI-Phasenkorrektur und iterativer Optimierung der dichtegewichteten k-Raum-Abtastung führt zu weiteren Verbesserungen der dichtegewichteten Bildgebung mit Multi-Echo-Sequenzen.