Refine
Year of publication
- 2013 (304) (remove)
Document Type
- Doctoral Thesis (233)
- Complete part of issue (48)
- Book (5)
- Book article / Book chapter (4)
- Master Thesis (4)
- Jahresbericht (2)
- Preprint (2)
- Report (2)
- Review (2)
- Study Thesis (term paper) (1)
- Working Paper (1)
Language
- German (304) (remove)
Keywords
- Würzburg (49)
- University (47)
- Universität (47)
- Wuerzburg (47)
- Wurzburg (47)
- Bor (7)
- Einzelhandel (6)
- HIV (6)
- Chemische Synthese (5)
- Silicium (4)
Institute
- Universität Würzburg (38)
- Institut für Pharmazie und Lebensmittelchemie (14)
- Medizinische Klinik und Poliklinik I (14)
- Institut für Anorganische Chemie (13)
- Julius-von-Sachs-Institut für Biowissenschaften (13)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (13)
- Medizinische Fakultät (13)
- Universität - Fakultätsübergreifend (13)
- Lehrstuhl für Orthopädie (9)
- Theodor-Boveri-Institut für Biowissenschaften (8)
Schriftenreihe
Sonstige beteiligte Institutionen
- Orthopädische Klinik und Poliklinik der Universität Würzburg (2)
- Fraunhofer IGB Stuttgart (1)
- Fraunhofer-Institut für Silcatforschung ISC in Würzburg (1)
- IFT Institut für Therapieforschung München (1)
- Institut für Neurowissenschaften der Universität Mailand (1)
- Klinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie des Leopoldina Krankenhaus Schweinfurt (1)
- König-Ludwig Haus (1)
- Ludwig-Maximilians-Universität München, Fakultät für Physik (1)
- Missionsärztliches Institut Würzburg (1)
- Professur für Museologie (1)
ResearcherID
- N-7500-2014 (1)
Die vorliegende Untersuchung gilt der Mikro- und Makrotypografie der seit 125 Jahren erscheinenden katholischen Verbandszeitschrift "Academia". Für die graphologischen und paläographischen Besonderheiten wird eine Hermeneutik vorgeschlagen. Das hier erforschte Druckbild repräsentiert mit einer Auflage von 30.000 Exemplaren im achtwöchigen Erscheinungsrhythmus den Cartellverband der Katholischen Deutschen Studentenverbindungen (CV). So illustriert und visualisiert dieses Druckbild mit seiner typografischen Performance zugleich den mitgliederstärksten Akademikerverband Europas.
Lieferketten im Einzelhandel
(2013)
Lieferketten im Einzelhandel haben sich in den letzten Jahren stark gewandelt. Die wachsenden Marktanteile von Einzelhandelsunternehmen oder -genossenschaften, die größer werdenden Einzelhandelsformate und die Erweiterung der Produktbreite und -tiefe führten zu früher kaum vorstellbaren Quantitäten. Gleichzeitig haben die Einführung von Informationstechnologie, die intensive Kooperation zwischen Händlern und Lieferanten durch Informationsaustausch oder vertikale Integration von Teilen der Lieferketten sowie die globale Ausbreitung von Lieferbeziehungen Prozesse des Supply-Chain-Managements auch qualitativ erheblich verändert. Parallel dazu wurden Ansätze entwickelt, wie diese Entwicklungen analysiert und konzeptionalisiert werden können. Dabei haben Analyserahmen wie die Ansätze der Globalen Warenketten oder der Globalen Produktionsnetzwerke die komplexe Aufgabe, Prozesse zu erfassen, die einerseits immer globaler werden, andererseits lokal und regional stark eingebettet sind. Vor diesem Hintergrund stellt der vorliegende Band aktuelle Forschungsergebnisse aus einer geographischen Perspektive vor. Insgesamt acht Beiträge beleuchten Lieferketten im Einzelhandel aus unterschiedlichen theoretischen Perspektiven und analysieren Fallstudien aus Australien, Deutschland, Indien, Südafrika und den USA. Dabei bezieht sich ein Großteil der Beiträge auf den Handel mit Lebensmitteln.
Mit Projektentwicklung, Vermarktung und Management von Handelsimmobilien beschäftigt sich eine wachsende Zahl von Berufsgeographen, jedoch nur ein überschaubarer Kreis von Forschern. Zwar ist unbestritten, dass der stationäre Handel als Betriebsmittel eine Verkaufsfläche braucht und klar definierte Ansprüche an ihre Gestaltung, ihren Zuschnitt und ihren Standort stellt. Jedoch überdeckt die Tatsache, dass der Handel diese Fläche nackt mietet und die für den Konsumenten sichtbare Kaufumgebung selbst stellt, gestaltet und laufend renoviert, ihren immobilien¬wirtschaft-lichen Charakter. Zudem trägt dazu bei, mit der Nennung der Betriebsform auch die zugehörige Immobilie zu bezeichnen.
Da aber gerade die Projektentwicklung einer Handelsimmobilie und ihr späteres Management über den Erfolg des Hauptnutzers entscheiden, verfolgt der vorliegende Band zwei Ziele: Einerseits führt er in diese Teildisziplin der Immobilienökonomie ein, andererseits vermittelt er einen Ausschnitt des bereits vorliegenden Praxiswissens. So wird im Grundlagenabschnitt für den Teilbereich der Discount- und Fachmarktimmobilien der Nachweis einer eigenständigen Forschungsdisziplin erbracht. Mit der phasenorientierten Betrachtung der Handelsimmobilien wird deren ökonomischer Lebenszyklus nachgezeichnet. Hierbei kommen die verschiedensten Akteure zu Wort, darunter die Öffentliche Planung, der Investor und auch der Eigentümer. Gerade letzteres Beispiel zeigt den entstehenden Interessenkonflikt zwischen den Ansprüchen einer sich dynamisch entwickelnden Handelsnutzung und den nachträglich veränderten Rahmenbedingungen der Bauleitplanung und darauf basierender Einzelhandelsentwicklungs¬konzepte. Funktionsspezifische Aspekte hinterfragen, in wieweit eine innenstädtische Bausubstanz den Anforderungen moderner Handelsunternehmen entspricht. Und unter strategiebezogenen Aspekten sind Beiträge unterschiedlicher Maßstäblichkeit zur Zukunftsperspektive von Handelsimmobilien zusammengefasst. Dabei werden BIDs als eine Initiative von Immobilieneigentümern zur Umfeldverbesserung der Handelsnutzung begriffen und die Investitionen in den Handelsimmobilienbestand von Hauptgeschäftsstraßen als nachhaltiger Beitrag zur Erhaltung der Urbanität aufgezeigt. Der Blick in die zukünftige Gestaltung der Managementimmobilie Shopping-Center gibt die Wechselwirkung mit der gesellschaftlichen Entwicklung und dem Stellenwert von Konsum wieder. Letztlich wird der Einfluss des Online-Handels auf die weitere Handelsimmobilienentwicklung abzuschätzen versucht.
Eine attraktive Innenstadt ist das Aushängeschild jeder Stadt, an deren Entwicklung eine Vielzahl von Akteuren beteiligt ist. Neben den Einzelhändlern und der Verwaltung wurden in den letzten Jahren auch die Immobilieneigentümer als wichtige Akteure in der Stadtentwicklung erkannt. Sie bieten mit ihren Immobilien Standorte, an denen eine Ansiedlung von Einzelhändlern erfolgen kann und beeinflussen durch die Gestaltung ihrer Immobilien sowie durch die Wahl der Mieter und Nutzungen die Attraktivität der Innenstädte. Die Untersuchungen dieser Arbeit konzentrieren sich auf die Bedeutung der Immobilieneigentümer für die Einzelhandelsentwicklung und damit für die Attraktivität der Innenstadt.
Ziel dieser Arbeit ist es, den Einfluss des Eigentümers auf die Handelsimmobilie und damit auf die Attraktivität der Innenstadt am Beispiel der Stadt Würzburg genauer zu untersuchen. Der Fokus liegt auf dem Zusammenhang von Eigenschaften, Zielen und Motiven des Immobilieneigentümers einerseits und dem Zustand der Immobilie andererseits.
Die methodische Vorgehensweise gliedert sich dementsprechend in zwei Untersuchungsansätze. Auf der einen Seite werden Informationen zu den Immobilieneigentümern durch Grundbuchauswertungen und Befragungen erhoben, um eine Typisierung vornehmen zu können. Auf der anderen Seite werden die Anforderungen von Einzelhändlern an innerstädtische Handelsimmobilien herausgearbeitet und in ein Bewertungsmodell überführt. Mit diesem werden die Immobilien im Untersuchungsgebiet hinsichtlich ihrer Eignung für den Einzelhandel bewertet. Aus der Verschneidung dieser beiden Ansätze können dann Aussagen über den Einfluss der Eigentümer auf die Handelsimmobilien und damit auch auf die Attraktivität der Innenstadt abgeleitet werden.
Die Lage(qualität) stellt den wichtigsten Faktor für den Erfolg eines Standorts dar! Dies gilt spätestens seit der Entstehung der ersten Fußgängerzonen in den 1950er Jahren und der Herausbildung der 1A-Lagen als begehrte innerstädtische Unternehmensstandorte.
Verwunderlich ist jedoch, dass trotz einer weitläufigen Bekanntheit des Begriffs der Lage(qualität), bzw. der 1A-, B- und C-Lage, zum aktuellen Zeitpunkt in Theorie und Praxis nicht nur vielfältige Bezeichnungen zur Beschreibung und Klassifizierung innerstädtischer Handelsstandorte, sondern auch eine große Bandbreite an Kriterien und Methodiken bestehen, die zur Qualitätsermittlung herangezogen werden.
Im Hinblick auf die aktuell knappen kommunalen Haushaltsmittel, den steigenden Wettbewerbsdruck im Handel und die zunehmende Krisenanfälligkeit des Wirtschafts-, Finanz- und Immobiliensektors und dem daraus resultierenden Bedeutungszuwachs fundierter Standort- bzw. Lageanalysen, stellt sich die Frage, welche Kriterien aus wissenschaftlicher Sicht zur Ermittlung von Lagequalitäten geeignet sind und wie ein aus diesen bestehendes Instrumentarium auszugestalten ist.
Darüber hinaus ist vor dem Hintergrund der in den letzten Jahren wachsenden Aktivitäten zur Zentrenrevitalisierung zudem zu überprüfen, ob ein solches Lagequalitäteninstrumentarium zur Schaffung einer soliden Datenbasis eingesetzt werden könnte, welche als wesentliche Grundlage zur Evaluierung verschiedener innerstädtischer Wiederbelebungsmaßnahmen fungiert.
Diesen und weiteren im Kontext der aktuellen Innenstadt- und Einzelhandelsentwicklung auftretenden Fragestellungen geht die vorliegende Arbeit nach.
Die vorliegende Arbeit behandelt die Rechtsvergleichung nationaler Modelle unternehmerischer Mitbestimmung in den EU-Mitgliedstaaten. Der Schwerpunkt der Untersuchung liegt auf der Mitbestimmung der Arbeitnehmer in den Unternehmensorganen im engeren Sinne, d.h. der Präsenz von Arbeitnehmervertretern auf höchster Ebene in den Verwaltungs- oder Aufsichtsorganen eines Unternehmens. In Zeiten enormer grenzübergreifender Verflechtung politischer und wirtschaftlicher Art stellt die Beteiligung der kleinsten Einheit der Globalökonomie – des Arbeitnehmers – die Parlamente, welche sich in sozialer Verantwortung sehen, vor große Herausforderungen. Divergierende Mitbestimmungsmodelle und variantenreiche Vorstellungen über die zukünftige Ausformung von Mitbestimmung in Europa sind entscheidende Gründe für das mehrmalige Scheitern europäischer Harmonisierungsvorhaben, v.a. gesellschaftsrechtlicher Natur. Ausgangspunkt der Rechtsvergleichung ist die Festlegung der grundlegenden Abgrenzungskriterien in den verschiedenen Rechtsordnungen und eine anschließende Darstellung der nationalen Mitbestimmungssysteme. Mit Blick auf historische Entwicklungen und Zusammenhänge wurden die Nationen entsprechend der rechtsvergleichenden Methodik in vier europäische Rechtskreise unterteilt. Bei der funktionalen Vergleichung der verschiedenen Mitbestimmungspraktiken ließen sich insbesondere bei den Organisationsstrukturen der Gesellschaften und den Arbeitnehmerschwellenwerten, deren Erreichen nötig ist, um zur Mitbestimmung berechtigt zu sein, große Unterschiede feststellen. Neben diesen Unterschieden in Staaten mit gesetzlicher Unternehmensmitbestimmung finden sich wirtschaftlich bedeutende Nationen, darunter Frankreich und Großbritannien, die überhaupt nicht für zwingende unternehmerische Mitbestimmung optiert haben, und in denen v.a. gewerkschaftlich organisierte Arbeitnehmerbeteiligung die Arbeitnehmer mitbestimmen lässt. Die vorgenannten Aspekte werden in der Arbeit vergleichend vorgestellt und anschließend einer kritischen Analyse unterzogen, die die Mitbestimmungsrealität in der Europäischen Union einbezieht.
Der Einfluss des PI3-Kinase Signalwegs auf die Regulation des alternativen HIV-1 prä-mRNA Spleißens
(2013)
In der vorliegenden Arbeit wurden ausgehend von HIV-1 basierten Minigenkonstrukten und der proviralen NL4-3 DNA die Einflüsse der PI3K Signalwegmodulation auf das alternative Spleißen der HIV-1 prä-mRNA sowie auf die Virus Replikation untersucht. Mittels RT-PCR Analysen konnte gezeigt werden, dass die PI3K Inhibition im Falle der HIV-1 basierten Minigenkonstrukte in einer erhöhten Abundanz ungespleißter bzw. intronhaltiger mRNAs resultierte, während im Kontext des Virus die Induktion alternativer Tat Transkriptvarianten nachgewiesen werden konnte. Als Folge der Inhibition des PI3K Signalwegs kam es zu einem vermehrten Einschluss der HIV-1 Leader Exone2/2b und 3. Da der Einschluss dieser Exone durch die hnRNP A/B- und F/H-abhängigen Silencer Elemente ESSV und GI2-1 negativ reguliert wird, wurde vermutet, dass die PI3K Inhibition mit der Funktionalität dieser spleißregulatorischen Aktivität interferiert. Unterstützt wurde diese Hypothese durch Replikationsexperimente mit ESSV und GI2-1 Mutanten in Gegenwart und Abwesenheit des PI3K-Inhibitors. Zusätzlich wurde auch der Einfluss des Inhibitors unter Überexpressionsbedingungen von hnRNP H auf das alternative HIV-1 Spleißen analysiert. In dieser Arbeit konnte ebenfalls gezeigt werden, dass die PI3K Inhibition ein verändertes hnRNP H Spleißmuster bedingt sowie die SR-Protein Phosphorylierung und Expression beeinflusst. Des Weiteren war es im Verlauf der vorliegenden Arbeit möglich, eine Interferenz der PI3K Modulation mit der Virus Replikation nachzuweisen. Die Überexpression der aktivierten Akt-Kinase lies hier nur eine sehr geringe Virus Produktion zu während die PI3K Inhibition diese auf ca. die Hälfte reduzierte. Weiterführende Experimente zeigten, dass die Überexpression der aktivierten Akt-Kinase den nuklearen Export Rev-abhängiger HIV-1 mRNAs zu blockieren scheint. Darüber hinaus beeinflusste die PI3K Inhibition neben dem alternativen HIV-1 Spleißen auch die virale Transkription sowie die zelluläre Translation. Zusammen könnten diese Effekte die reduzierte virale Replikation erklären. Der PI3K Signalweg spielt somit eine zentrale Rolle bei dem alternativen HIV-1 Spleißen und der viralen Replikation und bietet so die Möglichkeit der Entwicklung neuer Ansätze einer antiviralen Therapie.
Methodik: Für diese Studie wurden 34 Patienten zu drei verschiedenen Zeitpunkten untersucht. Hierbei wurden die EEG-Potentiale während einer CPT-OX-Testung abgeleitet. Für die vorliegende Arbeit sollen vor allem die Daten der ersten EEG-Messung (t1) ohne Einfluss jeglicher relevanter Medikation, die Daten der zweiten EEG-Messung (Challenge; t2), welche 60 Minuten nach der Einnahme eines der drei zur Verfügung stehenden Medikamente (Methylphenidat MPH 20 mg, Atomoxetin ATX 20 mg oder Placebo) erhoben wurden, und die Langzeitergebnisse nach ca. 28 Tagen Behandlungsdauer (t3) mit Methylphenidat (MPH) oder Atomoxetin (ATX) untersucht werden. Zur Überprüfung der Alternativhypothesen H1: μ > μ0, wurden jeweils die Hirnströme der Placebo-Gruppe mit denen der Medikamentengruppen (MTP und ATX) verglichen. Zur Überprüfung der Alternativhypothese H2: µ1 ≠ µ2, wurden die beiden Wirkstoffgruppen (ATX und MTP) miteinander verglichen. Auswertbar waren zum Zeitpunkt der Challenge die Daten von 30 Patienten, zum Zeitpunkt des Follow-Ups noch 28 Patientendaten. Ergebnisse: 1. Es ergab sich ein signifikanter Unterschied der relativen P150-Amplitude unter Therapie mit Methylphenidat zwischen der Baseline (t1) und der Challenge (t2) über Elektrodenposition Fz. 2. Es ergab sich ein signifikanter Unterschied der Amplitude der N2 unter Therapie mit Atomoxetin sowohl zwischen der Baseline- (t1) und der Challenge- (t2) also auch zwischen der Baseline- (t1) und der Behandlungsmessung (t3). Im Rahmen der Challenge-Untersuchung trat ein vergleichbarer Effekt auch in der Placebogruppe auf. Außerdem zeigte die Amplitude der N2 sowohl unter Atomoxetin als auch in der Placebogruppe Anstiege zwischen der Baseline (t1) und der Challenge (t2), welche für die Methylphenidatgruppe nicht beobachtet wurden. Diskussion: Das Potential P150 repräsentiert Filterung und gerichteter Aufmerksamkeit. Diese Komponenten werden durch die kurzfristige Einnahme von Methylphenidat beeinflusst. Einen Zusammenhang zwischen Dopaminaktivität im präfrontalen Kortex und verbesserter Aufmerksamkeit konnte kürzlich gezeigt werden (Rubia et al., 2011). Unsere Ergebnisse können diesen Zusammenhang bestätigen und zeigen zudem eine direkte Korrelation zwischen der Einnahme von Mehtylphenidat und dem Potential P150. Ein Ansprechen der P150 auf Methylphenidat repräsentiert somit eine Verbesserung der Aufmerksamkeit. Das Potential N2 repräsentiert Inhibition und somit, die Impulsivität. Diese wird sowohl durch die kurzfristige, als auch durch die längerfristige Einnahme von Atomoxetin beeinflusst. Analog der o. g. Ergebnisse kann somit von einem Effekt des selektiven Noradrenalin Wiederaufnahmehemmer auf die Symptomatik der Impulsivität ausgegangen werden. Eine Korrelation von Atomoxetin und der Aktivität des rechten inferioren, frontalen Kortex konnte ebenfalls bereits gezeigt werden (Chamberlain et al., 2008). Auch diese Ergebnisse können wir mit unserer Studie bestätigen und zudem eine Korrelation zwischen der Einnahme von Atomoxetin und dem Potential N2 aufzeigen. Ein Ansprechen der N2 unter Methylphenidat repräsentiert somit eine verbesserte Inhibtionskontrolle und somit eine verminderte Impulsivität. Somit konnte gezeigt werden, dass beide Medikamente auf unterschiedliche Teilsymptome des ADHS wirken.
Inhalt der vorliegenden Arbeit ist eine Studie der englisch-deutschen und deutsch-englischen Wörterbücher von Johannes Ebers, die gegen Ende des 18. Jahrhunderts erschienen. Die Arbeit versucht in einem ersten Schritt zu bestimmen, wie und in welchem Ausmaß die zeitgenössischen englischen Orthoepisten und Lexikografen, die Ebers als Quellen benutzt hat, Konzept und Realisierung seines englisch-deutschen Wörterbuches beeinflusst haben. Der zweite Schwerpunkt dieser Arbeit ist die Darstellung einer Methodologie zur Erstellung einer digitalen Edition der Wörterbücher auf der Grundlage der TEI-Guidelines for Electronic Text Encoding and Interchange (Version P5).
Das Phänomen der kardialen Präkonditionierung beschreibt die Möglichkeit durch bestimmte Stimuli die Toleranz des Myokardgewebes gegenüber lang andauernden Ischämien zu erhöhen. Es existieren zwei Formen der Präkonditionierung: die ischämische (IPC) und die pharmakologisch induzierte Präkonditionierung (PPC). Eine wichtige Form der PPC stellt die Anästhetika-induzierte Präkonditionierung (APC) dar. Die Untersuchungen der vorliegenden Arbeit erfolgten anhand eines in vivo Myokardinfarktmodells der Maus. Die IPC wurde durch mehrere kurze Episoden ischämischer Ereignisse hervorgerufen und führte zu einer signifikanten Reduktion der Herzinfarktgröße um bis zu 70 Prozent. Bei der APC wurde das Myokard mittels Applikation des volatilen Anästhetikums Desfluran präkonditioniert. Das Ausmaß der Herzinfarktgrößenreduktion war mit dem der IPC vergleichbar. Neben dem Nachweis der präkonditionierenden Effekte von IPC und Desfluran war es Ziel dieser Arbeit die Rolle der Serin-Threonin-Kinase Pim-1 und ihrer antiapoptotischen Fähigkeiten zu ermitteln. Die Bedeutung der Pim-1 Kinase in der Signalvermittlung der ischämischen und Desfluran-induzierten Präkonditionierung wurde über deren Blockade mit dem selektiven Pim-1 Kinase Inhibitor II untersucht. Der präkonditionierende Effekt von Desfluran konnte durch die Blockade der Pim-1 Kinase vollständig aufgehoben werden, während die Wirkung der IPC nur teilweise aufgehoben wurde. Somit ist die Pim-1 Kinase in die Signalvermittlung der IPC und Desfluran-induzierten Präkonditionierung involviert. Sie scheint jedoch eine unterschiedliche Rolle bei IPC und APC zu spielen. Mittels Western Immunoblot erfolgte die Bestimmung der Proteinexpression von Pim-1 Kinase, Bad und phospho-BadSer112. Die Bestimmung des Phosphorylierungsausmaßes von Bad an Serin 112 diente als Surrogatparameter der Pim-1-Aktivität. Nach ischämischer und Desfluran-induzierter Präkonditionierung zeigte sich eine tendenzielle Zunahme der Phosphorylierung von Bad. Im Falle der Desfluran-induzierten Präkonditionierung konnte dieser Effekt durch Applikation des Pim-1 Kinase Inhibitors II signifikant reduziert werden, während dagegen bei der IPC kein Einfluss des Pim-1 Kinase Inhibitors II beobachtet werden konnte. Als intrazellulärer Marker der Apoptoseinduktion wurde der zytosolische Gehalt an Cytochrom C bestimmt. Nach IPC und APC zeigte sich eine tendenzielle Reduktion des zytosolischen Gehaltes an Cytochrom C. Durch Applikation des Pim-1 Kinase Inhibitors II konnte diese Reduktion bei der Desfluran-induzierten Präkonditionierung aufgehoben werden, während die Effekte der IPC unverändert blieben. Die Pim-1 Kinase wirkt somit antiapoptotisch und kardioprotektiv, wobei eine unterschiedliche Funktion bei der IPC und APC zu vermuten ist. Die Untersuchungen der vorliegenden Arbeit konnten am in vivo Myokardinfarktmodell der Maus nachweisen, dass die Pim-1 Kinase an der Vermittlung der ischämischen und Desfluran-induzierten Präkonditionierung gegen Myokardinfarkt beteiligt ist. Sie scheint jedoch bei IPC und APC eine unterschiedliche Bedeutung zu haben.
In der vorliegenden Arbeit wurde das Expressionsverhalten fünf zellulärer Marker beim metastasierenden Plattenepithelkarzinom des Kopf- und Halsbereiches untersucht. Bei den getesteten Markern handelte es sich um einen MAGE-A, zwei verschiedenen VEGF, einen EGFR und einen C-Src-Tyrosinkinase Antikörper. Im Einzelnen sollte hinterfragt werden, ob ein Zusammenhang zwischen der Antikörperexpression und verschiedenen, klinischen und histopathologischen Parametern (pT-Stadium, pN-Stadium, histologisches Grading, Tumorverhornung, Patientenalter, Geschlecht des Patienten) besteht. Weiterhin war von Interesse, ob Parallelen zwischen dem Expressionsverhalten der verschiedenen Antikörper untereinander zu erkennen sind. Die Ergebnisse wurden anschließend mit Erkenntnissen aus anderen Studien und Literaturangaben verglichen.
Bei den Rezeptoren BAFF-R und BCMA handelt es sich um Mitglieder der TNF-Familie, die mit ihrem Liganden BAFF eine wichtige Rolle in der Homöostase und der Entwicklung der B-Zelllinie spielen. Mehrere Autoren zeigten bereits einen Zusammenhang dieses Ligand-/Rezeptorsystems mit der Proliferationskapazität und dem Überleben hämatopoetischer maligner Zellen auf. Die Expression dieser Rezeptoren als auch die Antikörperbildung gegen BCMA bei Patienten mit Multiplen Myelom (MM), die eine Lymphozytenspende erhalten hatten, führte zu der Annahme, dass BAFF-R und BCMA wichtige Zielantigene für die Entwicklung eines monoklonalen Antikörpers als Immuntherapeutikum des Multiplen Myeloms darstellen könnten. Um Ihre Eignung näher zu evaluieren, haben wir eine breit gefächerte Analyse der Expression von BAFF-R und BCMA auf hämatopoetischen und primären MM-Zellen und auf verschiedenen humanen Geweben vorgenommen. Wir konnten zeigen, dass BAFF-R auf B-und T-Lymphozyten und lymphoiden Dendritischen Zellen als auch in sehr unterschiedlicher Stärke auf primären MM-Zellen exprimiert wird. BCMA, dessen Expression bisher nur auf (malignen) Plasmazellen bekannt war, konnte nur auf primären MM-Zellen nachgewiesen werden. Nachdem BAFF-R durch die Entdeckung seiner Expression auf Hirngewebe als mögliches target für weitere Untersuchungen wegfiel, fokussierten wir uns auf das weitere Expressionsprofil von BCMA. Durch RT-PCR und immunhistochemische Untersuchungen konnte gezeigt werden, dass auch BCMA nicht selektiv von Plasmazellen oder ihrem malignen Pendant, sondern auch signifikant auf relevanten humanen Geweben wie Niere und Leber exprimiert wird. Eine targeted therapy mit diesen beiden Rezeptoren als Zielantigene ist somit weitestgehend ausgeschlossen, da eine Therapie mit einem monoklonalen Antikörper keine Selektivität für MM-Zellen besäße und somit die Gefahr einer Schädigung lebenswichtiger Organe nach sich ziehen könnte.
Die vorliegende Arbeit untersuchte die Veränderungen der wichtigsten hämostatischen Komponenten der plasmatischen Gerinnung in Thrombozyten- und Plasmakonzentraten während der achttägigen Lagerung bei Raumtemperatur. Es wurden keine signifikanten und klinisch relevanten Veränderungen der plasmatischen hämostatischen Kapazität des Plasmas für Fibrinogen, Gerinnungsfaktor XI, XII und XIII, Protein S und C (quantitative Messung), D-Dimere, von Willebrand-Faktor, Kollagenbindungs-aktivität und Ristocetin-Cofaktor nachgewiesen. Es kam jedoch zu einer zeitabhängigen Veränderung während der Lagerung bei PTT, Quick, Thrombinzeit, Gerinnungsfaktoren II, V, VII, VIII, IX, und X, Antithrombin III, Protein S und C (funktionelle Messung), Prothrombinfragmente F1+F2 und APC-Resistenz. Diese Veränderungen fanden sich zudem insbesondere in den gelagerten Thrombozytenkonzentraten. Die wenigen, in der Literatur verfügbaren Untersuchungen zeigen Ergebnisse, die den unseren vergleichbar sind. Erstmal wurden mit dieser Dissertationsarbeit jedoch umfassend alle diese Parameter in einem Ansatz verglichen. Vorausgesetzt, dass hämostaseologische Faktoren auch unter ungünstigen Lagerungsbedingungen weitgehend ihre hämostatische Kapazität behalten, kann bei Infusionen von Früh- oder Neugeborenen praktische Bedeutung erlangen, da die plasmatische hämostatische Kapazität in Thrombozytenkonzentraten nun in den Gesamtbedarf einbezogen werden kann. Ebenso können vereinfachte Lagerbedingungen (Raumtemperatur versus Tiefkühlung) in Krisensituationen enorme logistische Vorteile mit sich bringen. Weitere, insbesondere klinische Transfusionsstudien müssen nun zeigen, ob die ex vivo gewonnenen Erkenntnisse zur Haltbarkeit hämostatischer Gerinnungsfaktoren sich in den klinisch-praktischen Einsatz übertragen lassen. Mit unseren Versuchen wollten wir auch dazu beitragen, zukünftig möglichst schnelle und praktikable Therapievorschläge für Notfälle bereitzustellen. Eine bedeutende Rolle kann das bei Raumtemperatur gelagerten Plasma in der Transfusionsmedizin, Notfallmedizin, bei Operationen und in Kriseneinsätzen spielen. Es bleiben noch viele Fragen zu diesem Thema offen. Diese Arbeit wird zu weiterer Forschung anregen.
Zielsetzung: Zur Therapieentscheidung bei Osteoporose stehen mehrere Algorithmen basierend auf klinischen Risikofaktoren mit oder ohne Berücksichtigung der Knochendichte zur Verfügung. Ziel der vorliegenden Arbeit ist der Vergleich zwischen dem WHO FRAX-Algorithmus und einem von der DVO (Dachverband Osteologie) entwickelten Algorithmus hinsichtlich der Entscheidung für eine Osteoporose-spezifische Therapie.
Methoden: Insgesamt wurden 300 konsekutive Patienten (231 Frauen, 69 Männer, im Alter von 40-88 Jahren) in die Studie eingeschlossen, bei denen mit dualer-Röntgen-Absorptiometrie (DXA) am Femurhals und der lumbalen Wirbelsäule und mit peripherer quantitativer Computertomographie (pQCT) am distalen Radius die Knochendichte gemessen wurde. Mit dem FRAX-Rechner wurde unter Berücksichtigung von 12 klinischen Risikofaktoren und der Knochendichte am Femurhals die 10-Jahres-Frakturwahrscheinlichkeit für eine Hüftfraktur und eine größere osteoporotische Fraktur ermittelt. Analog dazu erfolgte mit dem DVO-Algorithmus anhand von 21 klinischen Risikofaktoren und des T-Scores am Femurhals oder der lumbalen Wirbelsäule die Bestimmung einer Therapieempfehlung ja/nein. Odds-Ratios zur Beurteilung der relativen Einflussstärke der einzelnen Risikofaktoren (CRFs) wurden mit Hilfe der multivariaten logistischen Regressionsanalyse berechnet. Der McNemar-Test kam zur Anwendung, um signifikante Unterschiede in der Häufigkeitsverteilung von Patienten mit positiver Therapieempfehlung bei FRAX und DVO zu ermitteln.
Ergebnisse: Beim Vergleich des Gesamtkollektivs zeigte sich ein statistisch signifikanter Unterschied (p<0.01) hinsichtlich der Anzahl der Patienten mit Empfehlung zur Therapie: FRAX 12% (36 absolut), DVO 30,3% (91 absolut). Das Gleiche gilt für die relative Einflussstärke der CRFs, ausgedrückt als Odds Ratio (OR): CRFs mit dem stärkstem Einfluss auf die Therapieentscheidung bei FRAX: Vorausgehende Fraktur (OR 48), Hüftfraktur der Eltern (OR 36,6) und Glukokortikoide (OR 34,4). Die entsprechenden CRFs bei DVO unter Einschluss des T-Scores am Femur: Glukokortikoide (OR 120), Rheumatoide Arthritis (29,3) und häufige Stürze (OR 16). Die einflussreichsten CRFs bei DVO unter Berücksichtigung des T-Scores an der LWS: TSH< 0,3mU/I (OR 660,6), Rheumatoide Arthritis (OR 440) und multiple Stürze (OR 250,8).
Schlussfolgerung: FRAX und DVO liefern signifikant unterschiedliche Ergebnisse sowohl im Hinblick auf die Anzahl der Patienten mit Therapieempfehlung als auch was die Einflussstärke der berücksichtigten CRFs betrifft. Beim DVO-Algorithmus werden Risikofaktoren wie ein supprimierter TSH-Wert (Schilddrüsenstimulierendes Hormon) einbezogen, deren Evidenz nicht eindeutig geklärt ist, die aber starken Einfluss auf die Therapieentscheidung gewinnen, wenn man beim DVO-Algorithmus den T-Score an der LWS mitberücksichtigt.
Häufig stellt die frühe Phase der innerklinischen Traumaversorgung bei Polytraumapatienten besonders die Schädel-Hirn-Verletzungen betreffend einen sehr dynamischen Zeitraum dar, weshalb zeitlich getriggerte Kontrolluntersuchungen weit verbreitet sind. Andererseits bedeutet der Transport zur Untersuchung für beatmete Patienten eine zusätzliche Gefahr. Untersucht wurde, wie häufig sich in einer frühen Kontroll-Computertomografie des Schädels neue oder verschlechterte Befunde finden und, wie diese neuen Informationen die Intensivtherapie beeinflussen. Methode: Retrospektive Analyse aus Befunddaten und Krankenakten. Eingeschlossen wurden 150 beatmete Patienten mit SHT oder Verdacht auf ein SHT, die eine frühe CCT-Kontrolle bekamen. Ergebnisse: Eine Verschlechterung der Befunde wurde bei 63 Patienten (42%) und neue Befunde bei 18 Patienten (12%) gefunden. Bei 47 Pateinten (31%) wurde die Intensivtherapie aufgrund der frühen Kontroll-CCT geändert. Schlussfolgerung: Bei beatmeten Polytraumapatienten treten in mehr als der Hälfte der Fälle Verschlechterungen oder neue intracranielle Befunde auf. Eine frühe CCT-Kontrolle kann diese erkennen und zu einer rechtzeitigen Therapieoptimierung führen.
In der vorliegenden Arbeit wurde der Archivbestand des Instituts für Rechtsmedizin der Universität Würzburg aus den Jahren 2002 bis 2012 untersucht. 696 Fälle mit Beteiligung stumpfer Gewalt, wurden statistisch erfasst. Darin eingeschlossen waren 622 Sektionsprotokolle und 74 Akten von Lebenduntersuchungen. Erfasst wurden dabei 94 Opfer von Gewalttaten und 598 Unfallopfer. Ziel der Arbeit war es, folgenden Fragestellungen nachzugehen: Welche Rückschlüsse im Hinblick auf deren Entstehung erlauben Art, Anzahl und Lokalisation von Gesichtsverletzungen im Einzelnen? Kann anhand dieser entschieden werden, ob es sich um einen Unfall oder ein Gewaltdelikt handelte? In diesem Zusammenhang wurden ausschließlich Fälle von stumpfer Gewalt bzw. stumpfer Gewalteinwirkung berücksichtigt. Folgende Kriterien wurden in einer Excel -Tabelle er- fasst und anschließend mittels SPSS [36] statistisch ausgewertet: Geschlecht, Alter, Verletzungsursache, die Blutalkoholkonzentration und, falls zutreffend, die Todesursache. Des Weiteren wurden folgende Verletzungsmerkmale registriert: Weichteilverletzungen und Frakturen der Nasen, des Ober- und Unterkiefers, Läsionen der Mundschleimhaut, der Ohren und des postaurikulären Bereichs. Außerdem die Anzahl von Verletzungen pro Opfer und Ursache. Um Aussagen über Fälle, in denen ein Verkehrsunfall oder zumindest ein Insassenunfall ausgeschlossen werden konnte, treffen zu können, wurden drei Untersuchungsgruppen gebildet. Ein Gesamtkollektiv, eine Gruppe speziell ohne Insassenverkehrsunfälle und ein Kollektiv generell ohne Verkehrsunfälle.
Das Gesamtkollektiv bestand aus 486 männlichen Geschädigten und 208 weiblichen Opfern. Männer waren häufiger Opfer von Unfällen als Frauen (m:w = 2,8:1). Bei Gewaltdelikten war das Verhältnis ausgeglichen (m:w = 1:1).
Die häufigste Unfallursache war der Insassenverkehrsunfall, gefolgt von unfall- bedingten Stürzen. Gewaltformen waren (in absteigender Reihenfolge) multiple
66
Gewalteinwirkungen bzw. Misshandlungen, Schläge mit stumpfen Gegenständen, Schläge mit der Hand und durch Stöße verursachte Stürze. Die häufigste Todesursache war das Schädel-Hirn-Trauma.
Die Analyse der Ausprägung verschiedener Verletzungen ergab, dass im Kollektiv ohne VU mehrere gleichzeitig auftretende Verletzungen eher für ein Gewaltdelikt sprechen. Zudem zeigte sich, dass explizit Sturzereignisse durchschnittlich signifikant weniger Verletzungen aufweisen als Misshandlungen bzw. multiple stumpfe Gewaltanwendungen. Verletzungen der Nasenweichteile und der Ober- und Unterkiefermundschleimhäute wurden sowohl bei Unfällen als auch bei Gewalttaten in allen Kollektiven als die Häufigsten identifiziert. Frakturen der Mandibula, Maxilla, des Os nasale und Zahnverletzungen zeigten keine signifikant unterschiedlichen Ausprägungen. Es konnte nachgewiesen werden, dass sich Mundschleimhautverletzungen insbesondere des Oberkiefers, Verletzungen der Nasenweichteile, der Ohrmuschel und der Haut hinter den Ohren signifikant häufiger bei Delikten stumpfer Gewalt präsentierten als dies bei Unfällen bzw. Sturzgeschehen der Fall war. Obwohl ein deutliches statistisches Übergewicht der Unfallzahlen im Vergleich zu Gewalttaten vorlag, zeigte sich, dass unter allen Ohrverletzungen (sowie Läsionen der Haut h. d. Ohren) mehr als die Hälfte durch eine Gewalttat verursacht wurden. Es wurde festgestellt, dass Kopfverletzungen durch stumpfe Gewalt, welche in der Literatur als typisch für Kindesmisshandlungen beschrieben werden, auch in Fällen von Gewalt gegen Erwachsene signifikant häufiger bei stumpfen Gewaltdelikten auftreten. Somit könnten diese auch als Prädiktor für vorliegende Gewalttaten dienen. Eine entsprechende Datenbank könnte als sinnvolle Ergänzung zu den bekannten Mitteln der Rechtsmedizin bzw. medizinischen Kriminalistik Verwendung finden, um Unfälle von Delikten stumpfer Gewalt zu unterscheiden.
Hintergrund: Schizophrenie-Spektrumerkrankungen sind häufige, schwerwiegende psychische Erkrankungen, die ein hohes Leid bei Betroffenen und ihren Angehörigen verursachen. Trotz intensiver Bemühungen ist die Ätiopathogenese dieser Erkrankungen bislang nur unzureichend verstanden, die Behandlung bislang nur symptomatisch möglich, wenngleich eine Wechselwirkung zwischen genetischen und umweltbezogenen Faktoren als ursächlich erscheint. Vorherige Arbeiten an frisch gefrorenem Hippokampusgewebe konnten zeigen, dass die adulte Neurogenese in der Subgranularzellschicht des Hippokampus bei an Schizophrenie Erkrankten vermindert ist. Weiterhin gibt es Hinweise für eine Beteiligung des cholinergen Systems und von M1-Acetylcholinrezeptoren bei der Entstehung der psychotischen Symptomatik. Ebenfalls konnte bereits in der Vergangenheit ein Mausmodell generiert werden, das schizophrenieartiges Verhalten zeigt und bei dem der M1-Acetylcholinrezeptor ausgeschaltet ist. Material und Methoden: Im Rahmen der vorliegenden Arbeit wurde zunächst eine Färbung gegen das Ki-67 Antigen als Marker für proliferative Aktivität in lange Zeit gelagertem Formalin-fixiertem und paraffiniertem Hirngewebe etabliert. Anschließend wurde eine postmortale Fall-Kontroll-Studie in lange Zeit gelagertem, in Formalin fixiertem und paraffiniertem Hippokampusgewebe durchgeführt, bei der die Zahl proliferativ aktiver Zellen, die gegen Ki-67 anfärbbar waren, untersucht wurde. Hierbei wurden sowohl gegen Ki-67 anfärbbare Zellen in der Subgranularzellschicht, als auch im Hilus ausgewertet. Es standen Hippokampi von 18 schizophren Erkrankten sowie 37 Hippokampi gesunder Kontrollen, die aus zwei verschiedenen Hirnbanken rekrutiert werden mussten, zur Verfügung. Die statistische Analyse erfolgte mithilfe eines Kruskal-Wallis Tests sowie bei signifikanten Ergebnissen in diesem mit einem Mann-Whitney U Test. Des Weiteren wurde eine Färbung gegen das Ki-67 Antigen in frisch gefrorenen Gehirnen von männlichen Mäusen durchgeführt; hierbei wurden zwölf wildtypische Mäuse mit zwölf Mäusen mit einer Ausschaltung des M1-Acetylcholinrezeptors vergleichen, wobei letztere schizophrenieartiges Verhalten zeigen. Die Auswertung erfolgte mittels eines zweiseitigen t-Tests. Ergebnisse: Eine Färbung gegen Ki-67 in lange Zeit gelagertem, Formalin-fixiertem und in Paraffin eingebettetem Gewebe konnte etabliert werden. Bei Analyse der humanen Fall-Kontroll-Studie konnte ein Trend zu einer verminderten adulten Neurogenese in der hippokampalen Subgranularzone bei schizophrenen Pateinten gefunden werden. Ein signifikanter Unterschied konnte im Vergleich der Fälle und einer Subgruppe von Kontrollen gefunden werden, die jedoch aus einer anderen Hirnbank als die Fälle stammten. Keine Signifikanz konnte bei Vergleich der Fälle mit den Kontrollen aus der gleichen Hirnbank oder bei Vergleich der Ki-67 positiven Zellen in der Hilusregion gefunden werden. Im Mausmodell konnte im Sinne der Hypothese einer verminderten adulten Neurogenese in den M1-Rezeptor knockout-Tieren eine signifikante Reduktion Ki-67 positiver Zellen im Vergleich zu wildtypischen Tieren gezeigt werden, wenn Zellnester anstatt einzelner Zellen gezählt wurden. Diskussion: Es konnte ein Trend hin zu einer verminderten hippokampalen adulten Neurogenese in der Subgranularzellschicht bei an Schizophrenie Erkrankten aufgezeigt werden. Aufgrund der Heterogenität der Proben sind die Ergebnisse jedoch vorsichtig zu bewerten, da Unterschiede in der Vorbehandlung der Proben unter Umständen auch die Ergebnisse erklären könnten, sodass die Ausgangshypothese einer verminderten hippokampalen adulten Neurogenese nicht sicher widerlegt, aber auch nicht gestützt werden kann; weitere Forschung scheint hier notwendig zu sein. Im Mausmodell konnte eine verminderte hippokampale Neurogenese bei M1-Rezeptor knockout-Mäusen nachgewiesen werden. Dieser Effekt ließ sich nachweisen, wenn große Zellnester betrachtet wurden, was für eine Modulation der Aktivität der neurogenen Niche bei den M1-defizienten Tieren spricht.
Die vorliegende Arbeit untersucht die Auswirkung von Macht und der damit einhergehenden Autonomie auf die Handlungsidentifikation (Vallacher & Wegner, 1985). Es wird die These untersucht, dass eigene Handlungen, die als autonom empfunden werden, auf höherer Ebene identifiziert werden, d.h. stärker in Bezug auf übergeordnete Ziele beschrieben werden, als eigene Handlungen, die als fremdbestimmt empfunden werden. Entsprechend sollten Menschen, die sich selbst als mächtig und daher auch als autonom wahrnehmen, bezüglich ihres eigenen Handelns eine höhere Ebene der Handlungsidentifikation wählen.
Studie 1 zeigt mit Hilfe einer modifizierten Version des Behavior Identification Form (BIF; Vallacher & Wegner, 1989), dass Handlungen, die als selbstgewählt bzw. autonom beschrieben werden, im Vergleich zu Handlungen, die als fremdbestimmt beschrieben werden, häufiger auf einer hohen Ebene der Handlungsidentifikation, also in Bezug auf ihre übergeordneten Ziele beschrieben werden, und seltener durch konkretere Beschreibungen des eigentlichen Handlungsprozesses.
Studie 2 zeigt ebenfalls mit Hilfe eines modifizierten BIF, dass die Handlungen einer anderen Personen häufiger auf einer niedrigeren Ebene der Handlungsidentifikation beschrieben werden, wenn man diese Handlungen laut ihrer Beschreibung selbst veranlasst hat, als wenn sich diese Person selbst entschieden hat, diese Handlungen auszuführen. Auch dieser Zusammenhang kann durch die Annahme erklärt werden, dass die eigene Einflussnahme eine Einschränkung der Autonomie der Handlungen einer anderen Person ist und diese Verringerung der Autonomie zu einer Verringerung der Ebene der Handlungsidentifikation führt.
Studie 3 zeigt, dass Versuchspersonen nach der Aktivierung des Konzeptes Autonomie durch semantisches Priming sowohl die eigenen Handlungen als auch die einer anderen Person auf höherer Ebene der Handlungsidentifikation beschreiben.
Studie 4 zeigt, dass männliche Versuchspersonen, die in einem Rollenspiel eine relativ mächtige Position einnehmen, im Vergleich zu männlichen Versuchspersonen, die eine relativ machtlose Rolle einnehmen, ein erhöhtes Autonomieempfinden berichten und gleichzeitig auch häufiger Handlungen auf einer höheren Ebene der Handlungsidentifikation beschreiben. Dabei spielt es auch in dieser Studie keine Rolle, ob es sich um eigene Handlungen handelt oder um die einer anderen Person. Für Frauen zeigt sich weder ein erhöhtes Autonomieempfinden in der relativ mächtigen Rolle noch eine erhöhte Häufigkeit, mit der die höhere Ebene der Handlungsidentifikation gewählt wird.
In Studie 5 werden korrelative Zusammenhänge von Persönlichkeitsvariablen untersucht. Hierbei zeigt sich ein positiver Zusammenhang zwischen selbstberichtetem generalisierten Machtempfinden und der Häufigkeit, mit der Handlungen auf höherer Ebenen der Handlungsidentifikation beschrieben werden. Dieser Zusammenhang verschwindet, wenn für das selbstberichtete Autonomieempfinden kontrolliert wird.
Die Ergebnisse sprechen für einen Zusammenhang zwischen Autonomie und Handlungsidentifikation, welcher auch einen Wirkmechanismus für den Zusammenhang zwischen Macht und Handlungsidentifikation darstellt.
Unklar bleibt die Frage, wie genau die Wirkung auf die Identifikation des Handelns anderer zustande kommt. Zudem wird diskutiert, inwiefern, die Interpretation von Macht – als Situation erhöhter Verantwortung oder gesteigerter Autonomie – zu unterschiedlichen Effekten von Macht auf Handlungsidentifikation führen kann.
Zudem wird die Frage untersucht, inwiefern die höhere Abstraktion von Handlungen auch mit einer höheren Abstraktion in anderen Bereichen der Informationsverarbeitung einhergeht. Hierzu wird exemplarisch die Verarbeitung visueller Stimuli untersucht. Die Daten weisen auf einen Zusammenhang zwischen Macht bzw. Autonomie und einer globaleren Verarbeitung visueller Stimuli hin. Der fehlende Zusammenhang zwischen abstrakter Handlungsidentifikation und globaler visueller Verarbeitung deutet jedoch darauf hin, dass es sich hierbei um voneinander unabhängige Wirkmechanismen handelt.
Die vorliegende Studie befasst sich mit der medikamentösen Langzeittherapie der Endotheldysfunktion im Rahmen der klinisch manifesten Herzinsuffizienz nach
Myokardinfarkt mit dem sGC-Aktivator Ataciguat.
Im Rahmen der chronischen Herzinsuffizienz nach abgelaufenem Myokardinfarkt kommt es als Folge der eingeschränkten linksventrikulären Funktion und der verminderten Schubspannung am Gefäßendothel zur Endotheldysfunktion. Die Vasodynamik gerät aus dem Gleichgewicht und führt zur erniedrigten Bioverfügbarkeit von NO, zur verminderten Expression des NO-synthetisierenden Enzyms (eNOS) und zur
Entkopplung der eNOS. Dieses als „eNOS-uncoupling“ bekannte Phänomen führt zur vermehrten Bildung von reaktiven Sauerstoffradikalen, welche den oxidativen Stress auf das beschädigte Endothel erhöhen. Die reaktiven Sauerstoffradikale oxidieren zusätzlich in den glatten Muskelzellen die lösliche Guanylatzyklase und reduzieren somit die Vasodilatation.
Verschiedene neurohumerale Systeme beeinflussen das Gleichgewicht zwischen vasodilatativen und vasokonstriktiven Substanzen am Endothel und somit die
Endothelfunktion. Diese neurohumeralen Systeme spielen wichtige Rollen in der aktuellen medikamentösen Therapie der chronischen Herzinsuffizienz und bieten zahlreiche verschiedene Therapieoptionen.
Ein relativ neuartiger Therapieansatz beinhaltet die medikamentöse Therapie mit sogenannten sGC-Aktivatoren, einer Wirkstoffklasse, die durch direkte Interaktion
mit der löslichen Guanylatzyklase sowohl die Bildung von Sauerstoffradikalen verringert, als auch die NO-Sensibilität am Gefäßendothel verbessert. Hierzu gehört
auch das in dieser Studie untersuchte Ataciguat.
Neben den direkten, „endothel-abhängigen“ Effekten am Gefäßendothel beeinflußt Ataciguat über die sogenannten „endothel-unabhängigen Effekte“ die Funktion der Blutplättchen, welche im Rahmen der Herzinsuffizienz durch die verminderte Bioverfügbarkeit von NO eine vermehrte Aktivierung und Adhäsion erfahren. Die
Folge sind erhöhte Risiken für thrombembolische Ereignisse und die Formation artherosklerotischer Läsionen. Ataciguat vermindert diese Risiken.
Mit den Ergebnissen dieser Studie konnten sowohl die endothel-abhängigen als auch die endothel-unabhängigen Effekte der medikamentösen Langzeittherapie mit
Ataciguat im experimentellen Modell der chronischen Herzinsuffizienz nach Myokardinfarkt bestätigt werden.
Die vorliegende Arbeit analysiert retrospektiv die funktionellen Beeinträchtigungen und Einschränkungen der Lebensqualität von Kindern und Jugendlichen mit primärer fokaler Hyperhidrose.
Grundlage der vorliegenden Untersuchung bildeten ein selbst entworfener Fragebogen sowie die Auswertung der Ambulanzkarten von 35 Kindern und Jugendlichen mit primärer fokaler Hyperhidrose im Alter von unter 18 Jahren, die sich im Zeitraum von Januar 2000 bis Dezember 2009 in der Hyperhidrose-Sprechstunde der Hautklinik des Universitätsklinikums Würzburg vorstellten. Die vorliegende Arbeit spezifiziert die täglichen Einschränkungen, welche die Kinder und Jugendlichen erleben. Für zwei Drittel der Patienten war das Schwitzen nach Maßgabe der Hyperhidrosis Disease Severity Scale kaum zu ertragen oder unerträglich und beeinträchtige häufig oder immer die täglichen Aktivitäten. Zwei Drittel der Patienten gaben an, derart stark unter der Krankheit zu leiden, dass sie ihre Lebensweise der Krankheit anpassten. Weiter konnte gezeigt werden, dass die Einschränkungen ähnlich gravierend sind wie bei Erwachsenen und anderen Dermatosen in der Kindheit. Die psychische und soziale Entwicklung kann bei einigen Betroffenen nachhaltig beeinträchtigt werden, was sich auch auf das spätere Leben auswirken kann. Diese Erkenntnis ist wichtig, um eine frühzeitige Diagnose und adäquate Behandlung voranzutreiben.
Durch zunehmenden, breiteren Einsatz bildgebender Verfahren werden immer häufiger Nebennierenraumforderungen zufällig entdeckt, sog. Inzidentalome. Ist für Tumorentitäten wie dem Conn-Adenom, adrenocorticalen Carcinom, Phäochromozytom oder manifesten Cushing-Syndrom der Krankheitswert belegt, ist dies bei den anderen Nebennierenadenomen unklarer. Diese Adenome sind in der Regel hormoninaktiv; eine Subgruppe jedoch weist ein sog. Subklinisches Cushing-Syndrom auf, beim welchem autonom Cortisol sezerniert wird, aber keine klinische Stigmata eines manifesten Cushing-Syndroms festzustellen sind. Zahlreiche Definitionen für dieses Syndrom sind beschrieben. Allerdings besteht keine Einigkeit über eine allgemeingültige Definition oder zur Frage, ob das Subklinische Cushing-Syndrom überhaupt einen Krankheitswert (zum Beispiel im metabolischen Bereich) besitzt. Genau diesen beiden Punkten widmet sich die vorliegende Arbeit, die sog. WISO Studie (Würzburg Incidentaloma Study on clinical Outcome). Hierbei wurden unterschiedliche aus der Literatur stammenden Definitionen des Subklinische Cushing-Syndroms auf ein großes Nebenniereninzidentalom-Patientenkollektiv angewendet.
Das Patientenkollektiv bildeten Personen, bei denen zwischen 1999-2008 in der Universitätsklinik Würzburg ein Nebennieren-Inzidentalom aufgefallen war bzw. die zur weiteren Abklärung einer auswärts zufällig gefundenen Nebennieren-Raumforderung in der Uniklinik waren. Insgesamt umfasst die Studie ein Kollektiv von 288 Patienten.
Um die erhobenen Daten in Bezug auf das kardiovaskuläre Risiko quantifizierbar und vergleichbar zu machen, wurde ein eigener Score erarbeitet, der sich am Framingham-Score orientierte. Dieser wurde zum sog. „WISO-Framingham-Score“ modifiziert. Im Endeffekt konnte so für jeden Patienten eine individuelle Erkrankungslast berechnet und diese untereinander verglichen werden.
Mit keiner der angewandten 13 Definitionen ließ sich zuverlässig eine Patientengruppe herausfiltern, die kardio-metabolisch gesehen signifikant "kränker" war als das Vergleichskollektiv. Desweiteren ließen sich die zum Teil sehr positiven Ergebnisse einiger Forschungsgruppen in Bezug auf einzelne kardio-metabolische Erkrankungsparameter nicht reproduzieren. Lediglich die Patienten mit einem pathologischen Speichelcortisol-Tagesprofil (n=4) zeigten einen annähernd signifikanten Unterschied in ihrer kardio-metabolischen Gesamtmorbidität (p = 0,05), wobei hier die "Positivgruppe" zu klein war, um verlässliche Aussagen zu treffen.
Auch wenn wir nicht abschließend belegen können, dass das Subklinische Cushing-Syndrom keinen Krankheitswert besitzt, so legen unsere Ergebnisse diese Vermutung doch nahe.
In der vorliegenden Arbeit wurden mesenchymale Fettstammzellen aus humanem abdominalen Fettgewebe erwachsener weiblicher Spender (n = 4) isoliert und in vitro expandiert. Die isolierten mesenchymalen Fettstammzellen wurden auf stammzellspezifische Oberflächenmoleküle mit der Durchflusszytometrie und histologisch auf ihr Multidifferenzierungspotential untersucht. Weitere isolierte mesenchymale Fettstammzellen wurden in Fibringel resuspendiert und in einen Polyurethanschaum eingebracht. Diese Polyurethan-Fibrin-Konstrukte wurden über einen Zeitraum von 21 Tagen in einem chondrogenen Differenzierungsmedium unter der Zugabe der Wachstumsfaktoren TGF-β3 (50 ng/ml), BMP-6 (500 ng/ml) und IGF-I (100 ng/ml) kultiviert. Der Nachweis der chondrogenen Differenzierung und der Bildung einer knorpelähnlichen extrazellulären Matrix erfolgte molekularbiologisch durch die Untersuchung der Polyurethan-Fibrin-Konstrukte auf knorpelspezifische Marker-Gene mittels Real-Time-Polymerase-Kettenreaktion (RT-PCR) und durch biochemische Analyse des DNA-, Glykosaminoglykan- und Kollagen-Gehalts. Zudem erfolgten histologische Färbungen mit Alzianblau und Safranin O sowie eine chromogene Immunhistochemie zur Darstellung der Extrazellularmatrix und knorpelspezifischer Proteine wie SOX-9. Um die angestrebte Biokompatibilität, Einheilung und Defektdeckung dieser chondrogen differenzierten Polyurethan-Fibrin-Konstrukte zu untersuchen, erfolgte zusätzlich ein in vivo-Versuch an Kaninchen mit autologen mesenchymalen Kaninchen-Fettstammzellen. Mesenchymale Kanichen-Fettstammzellen wurden aus dem Nackenfett von New Zealand white rabbits (n = 6) isoliert und vermehrt. Nach einer 2-wöchigen chondrogenen Vordifferenzierung der mesenchymalen Fettstammzellen in Polyurethan-Fibrin-Konstrukten durch Zugabe der Wachstumsfaktoren TGF-β3 (50 ng/ml) und BMP-6 (500 ng/ml) erfolgte die Implantation dieser Konstrukte in gestanzte, 4 mm große Knorpelläsionen der Kaninchenohrmuschel. Nach 3 und 6 Wochen wurden die chondrogen differenzierten Polyurethan-Fibrin-Konstrukte zur makroskopischen und histologischen Untersuchung durch Alzianblau- und Safranin O-Färbungen entnommen.
Der Einfluss von Rotations- und Translationsbewegungen bei kranieller stereotaktischer Radiotherapie
(2013)
Hintergrund: Kranielle Stereotaxie ist ein wichtiges Therapieinstrument zur Behandlung kranieller neoplastischer Läsionen. Mittels bildgeführter Radiotherapie konnten in den vergangenen Jahren Genauigkeit und Komfort der Patientenlagerung essentiell verbessert werden. Folgende Arbeit untersucht die Bedeutung der bildgeführten Patientenlagerung (Image Guidance) in Bezug auf geometrische Unsicherheiten und deren Einfluss auf die dosimetrische Verteilung.
Material und Methoden: In Würzburg wurden zwischen 2006 und 2010, 98 kranielle Läsionen in 71 Patienten radiochirurgisch behandelt. Mittels Cone-Beam CT wurden die Patientenverlagerungen bezogen auf alle 6 Freiheitsgrade vor Behandlungsbeginn (n=98) sowie nach der Therapie (n=64) aufgezeichnet. Aus den Daten für die einzelnen Raumachsen wurde der absolute Versatz (3D-Vektor) sowie maximale Rotation um die resultierende Drehachse berechnet. Die Prae- sowie Posttherapeutische Verlagerungen wurden im Planungssystem simuliert. Für Szenarien mit unterschiedlichen Sicherheitsäumen (0 mm,1 mm, 2 mm) wurde der Ausgleich der Translationen sowie der Rotationen in Bezug auf Dosis-Konformität und Zielabdeckung getrennt untersucht.
Ergebnisse: Der mittlere Prae-IG Versatz betrug 3.96 mm ± 1.89 mm mit einer mittleren maximalen Rotation im Raum von 2,02°±0,84°. Der mittlere Lagerungsfehler nach Therapieende betrug 0,88mm±0,61mm mit einer mittleren maximalen Rotation von 0,65°±0,64°. Die Verlagerung während der Bestrahlung korrelierte signifikant mit der Behandlungszeit (0,7mm±0,5mm für t<23min; 1,2mm±0,7mm für t>23min). Die Simulation der Behandlung ohne IG-Ausgleich zeigte einen Einbruch der Zielabdeckung (Coverage Index) von 96,0%±5,7% auf 72,1%±19,0% und der Konformität (Paddick Conformity Index) von 73,3%±11,1% auf 43,4%±17,8%. Pro 1mm Abweichung nahmen Zielabdeckung sowie Konformität um 6% bzw. 10% ab. Alleiniger Ausgleich der Translationen ohne Rotationen führte zu nicht signifikanten Einbussen. Bewegungen während der Bestrahlung führten zu einem Abfall des CI auf 94,3%±6,8% bzw. des PCI auf 70,4%±10,8%. Ein 1mm Sicherheitssaum genügte um diese Bewegungen zu kompensieren
Schlussfolgerungen: Bildgeführte Radiotherapie ist ein wichtiges Instrument zur Verbesserung der Therapiepräzision. Unter offensichtlichen Voraussetzungen kann auf den prätherapeutischen Ausgleich der rotatorischen Komponente bei kranieller Stereotaxie verzichtet werden. Bewegungen während der Behandlung reduzieren die gewünschte Zielabdeckung sofern dem nicht durch geeignete Sicherheitssäume Rechnung getragen wird.
Da die häufigste Ursache der pathologischen Mamillensekretion ein benigner Prozess ist, sollte die Diagnostik mittels nicht invasiver Verfahren im Vordergrund stehen. Dabei stellt die Kernspintomographie eine wichtige Modalität dar, vor allem wenn die Mammographie und die Mammasonographie keine Befunde zeigen. In dieser Studie wurden Patientinnen mit pathologischer Mamillensekretion mittels MR-Mammographie bei 3,0 Tesla und anschließend mittels Galaktographie untersucht.
Von Juli 2009 bis Juni 2012 wurden 50 Patientinnen in die Studie eingeschlossen, die eine pathologische Mamillensekretion zeigten und einer MR-Mammographie bei 3,0 Tesla zustimmten. Bei allen Studienteilnehmerinnen waren sowohl die Mammographie als auch die Mammasonographie negativ oder zeigten einen unklaren Befund. Weitere Einschlusskriterien waren im Normbereich liegende Nieren- und Prolaktinwerte.
Sechs Patientinnen zeigten einen beidseitigen Ausfluss. Hier wurden beide Brüste in die Studie eingeschlossen, so dass insgesamt 56 Fälle mit einem Durchschnittsalter von 51,2 Jahren (Standardabweichung ± 12,8 Jahre, Median 52,5 Jahre) betrachtet wurden. Ältere Patientinnen zeigten dabei häufiger maligne Ursachen als jüngere, ohne Nachweis eines signifikanten Unterschieds (p = 0,272).
Bei der klinischen Untersuchung war in 44,6% (25/56) ein nicht-blutiger und in 55,4% (31/56) ein blutiger Ausfluss erkennbar. Die Inzidenz der Malignität in der Gruppe der blutigen Sekretion war höher (19,4% vs. 8,0%), jedoch nicht signifikant (p = 0,23). In der Literatur wird davon berichtet, dass bei blutigem Ausfluss das Risiko für ein Mammakarzinom höher ist. Es wird aber auch darauf hingewiesen, dass bei einem nicht-blutigen Ausfluss ein Malignom keinesfalls ausgeschlossen werden kann.
Die häufigste Ursache der pathologischen Mamillensekretion war, wie auch in der Literatur berichtet wird, mit 39,4% ein Papillom. Insgesamt wurde in 14,8% ein Malignom nachgewiesen. Dies ist etwas höher als die vergleichbaren Angaben von 2% - 10% in der Literatur.
Es bestand ein signifikanter, direkt proportionaler Zusammenhang zwischen Größe in der MR-Mammographie und Malignität (p = 0,019). Ein Phänomen, das Liberman et al. ebenfalls beschrieben. Sowohl sie als auch Langer et al. empfehlen somit bei Läsionen, die kleiner als 5 mm sind, aufgrund der geringen Malignomrate auf eine Biopsie zu verzichten. Auch in der vorliegenden Studie waren alle Läsionen < 5 mm benigne.
Zwischen der MR-mammographisch geschätzten Größe und der histopathologisch ermittelten Größe konnte eine signifikant hohe Korrelation gezeigt werden (Korrelationskoeffizient nach Pearson 0,095, p < 0,0001). Dabei wurden die Befunde in der Kernspintomographie tendenziell größer dargestellt. Die gleiche Erfahrung machten auch Son et al. und Schouten van der Velden et al..
Die Ergebnisse der MR-Mammographie wurden mit der danach durchgeführten Galaktographie verglichen. Ein wichtiger Nachteil der Galaktographie zeigte sich in der eingeschränkten Durchführbarkeit. In 23,3% konnte diese nicht erfolgreich beendet werden. In der Literatur wird von ähnlichen Prozentsätzen gesprochen. Zusätzlich erzielten wir im Vergleich zur MR-Mammographie sowohl eine geringere Sensitivität (86% vs. 96%) als auch eine niedrigere Spezifität (33% vs. 70%) für die Galaktographie, was sicherlich auch die Schwierigkeit der Unterscheidung zwischen benignen und malignen Befunden bei einer Galaktographie widerspiegelt. Morrogh et al. verglichen die Galaktographie mit der MR-Mammographie bei 1,5 Tesla ebenfalls bei Patientinnen mit pathologischer Mamillensekretion und negativer Standarddiagnostik. Die von ihnen berichtete Sensitivität von 83% für die MR-Mammographie ist vergleichbar mit der der vorliegenden Studie (75%). Bei 1,5 Tesla erreichten sie allerdings nur eine Spezifität von 62%, die geringer ist als die von uns errechnete Spezifität von 88%. Auch andere Studien referieren eine höhere Spezifität bei höherer Feldstärke.
Um dies allerdings aussagekräftig zu zeigen, muss eine intraindividuelle Studie bei 1,5 Tesla und 3,0 Tesla durchgeführt werden.
Zusammenfassend kann man jedoch sagen, dass die Galaktographie durch die nicht invasive, strahlungsfreie MR-Mammographie bei der Untersuchung von Patientinnen mit pathologischer Mamillensekretion ersetzt werden sollte, insbesondere wenn die Standarddiagnostik keine auffälligen Befunde liefern konnte.
Neurotrophine beeinflussen durch die Modulation von Prozessen wie Zellproliferation, -migration, Apoptose und Synapsenbildung entscheidend die neuronale Plastizität. Sie gelten deshalb als Kandidatengene neuronaler Entwicklungsstörungen wie Autismus-Spektrum-Störungen (ASS). Die vorgelegte Arbeit zielt auf die weitere Klärung der Rolle von Brain Derived Neurotrophic Factor (BDNF) bei der Ätiopathophysiologie der ASS durch Expressionsanalysen im Blut als potenziellem Surrogat zentralnervöser Prozesse.
In gut charakterisierten ASS-Stichproben und - neben gesunden Kontrollprobanden - einer klinischen Kontrollgruppe von Patienten mit Aufmerksamkeitsdefizit-/ Hyperaktivitätsstörung (ADHS) wurde die BDNF-mRNA-Expression in Vollblut sowie BDNF-Proteinserumkonzentrationen untersucht. Zusätzlich wurden mögliche Einflussfaktoren auf die BDNF-Werte wie Alter, IQ, autismusspezifische Symptomatik, Komorbidität und Medikation analysiert.
In einer ersten Stichprobe (ASS-Patienten versus gesunde Kontrollen) wurden
signifikant erniedrigte BDNF-Serumkonzentrationen in der Patientengruppe mittels
Enzyme-Linked-Immunosorbent-Assay gemessen (p = 0,040). In einer zweiten unabhängigen Stichprobe (Patienten mit ASS, Patienten mit ADHS und gesunde Kontrollen) wurde auf mRNA-Ebene mittels quantitativer Real-Time-Polymerasekettenreaktion ebenfalls ein signifikanter Gruppenunterschied ermittelt mit erniedrigter BDNF-Expression in der ASS-Gruppe im Vergleich zu gesunder Kontrollgruppe (p = 0,011), sowie einem Trend zu erniedrigten BDNF-Werten bei ADHS-Patienten im Vergleich zu gesunden Probanden (p = 0,097). Des Weiteren wurde eine signifikante negative Korrelation zwischen Alter und BDNF-mRNA-Expression bei Patienten mit ASS sowie eine positive Korrelation von Alter und BDNF-Serumkonzentrationen bei gesunden Kontrollen gemessen. Auch korrelierten die BDNF-Werte im Serum mit der Ausprägung des autistischen Phänotyps. In einer Subgruppe der ADHS-Patienten wurde kein Einfluss von Psychostimulanzien auf die BDNF-mRNA-Expression gemessen.
Der Einbezug größerer Stichproben sowie die systematische Erfassung weiterer potenzieller Einflussfaktoren auf die BDNF-Expression (wie pubertärer Entwicklungsstand bzw. Geschlechtshormonkonzentrationen) könnten in zukünftigen Studien zu einer weiteren Klärung der pathophysiologischen Rolle von BDNF bei Kindern und Jugendlichen mit ASS beitragen.
Nach einem Myokardinfarkt werden ventrikuläres Remodeling und myokardiale Funktion unter anderem durch die ablaufenden Reaktionen des angeborenen Immunsystems beeinflusst. Von zentraler Bedeutung für die Regulation dieser Immunreaktion ist der Transkriptionsfaktor Nuclear Factor kappa B. Tiere, bei denen NF-κB durch das Fehlen seiner Untereinheit p50 global inaktiv ist, wei- sen einen Schutz vor linksventrikulärem Remodeling auf. Bisher ist jedoch un- klar, welche Zellen für diesen protektiven Effekt verantwortlich sind. Vorange- gangene Studien konnten zeigen, dass die Protektion nicht auf die fehlende NF- κB Aktivierung in Kardiomyozyten zurückzuführen ist. Aus Ischämie- Reperfusions-Experimenten an NF-κB-defizienten Tieren ergaben sich Hinwei- se, dass v.a. die Hemmung von NF-κB in Entzündungszellen die protektiven Effekte vermittelt.
Durch Kreuzung von LysMCre- mit lox-IKKβ-Tieren erzeugten wir Tiere, denen makrophagenspezifisch IκB-Kinase β (IKKβ) fehlt. IKK deaktiviert den Inhibitor von NF-κB und ist somit essentiell für eine NF-κB-Aktivierung. Als Modell der Herzinsuffizienz diente der chronische Myokardinfarkt. Die Nachbeobachtung erfolgte über 56 Tage.
Die Knockout-Tiere (KO) hatten im Vergleich zu den Wildtyp-Tiere (WT) eine signifikant bessere Überlebensrate (KO vs. WT, 100% vs. 49%, p < 0,01). Präoperativ sowie postoperativ an den Tagen 1, 21 und 56 wurden transthora- kale Echokardiographien durchgeführt. Bei gleicher Infarktgröße zeigten die KO-Tiere eine deutlich geringere linksventrikuläre Dilatation. Es konnte moleku- larbiologisch keine Reduktion der humoralen Entzündungsreaktion nachgewie- sen werden, ebenso blieb das Entzündungszellinfiltrat immunhistochemisch unverändert. Auch bezüglich Apoptoserate und Neovaskularisation zeigte sich kein Unterschied zwischen den Gruppen. Allerdings zeigten die LysM-IKKβ-KO-Tiere 56 Tage nach Myokardinfarkt einen deutlich erhöhten septalen Kollagen- gehalt als Hinweis auf ein verändertes extrazelluläres Remodeling.
Aus diesen Ergebnissen kann geschlossen werden, dass die protektiven Effek- te der globalen NF-κB-Hemmung durch die fehlende NF-κB-Aktivierung in Ma- krophagen und Granulozyten, nicht aber in Kardiomyozyten vermittelt wurden. Die durch die makrophagenspezifische NF-κB-Hemmung vermittelten Verände- rungen im Remodeling der extrazellulären Matrix führen zu einer Verbesserung der Überlebensrate, besseren funktionellen Ergebnissen und einem insgesamt verminderten linksventrikulären Remodeling nach Myokardinfarkt.
Der Regierungsbezirk Unterfranken, das Untersuchungsgebiet des Sprachatlas von Unterfranken (SUF), ist dialektologisch dadurch gekennzeichnet, dass durch ihn von Südwesten nach Nordosten (Spessart, Rhön) die Grenze zwischen dem Oberdeutschen und dem Mitteldeutschen verläuft. Diese Grenze wird im nördlichen Teil Rhönschranke genannt. Allerdings gibt es keine scharfen Dialektgrenzen, sondern nur Übergangsgebiete zwischen zwei dialektalen Kernräumen. Übergangsgebiete sind dadurch gekennzeichnet, dass Merkmale eines (Kern-)Raums ab- und die des anderen zunehmen. Auf der Basis des SUF-Materials wird dieses Übergangsgebiet beschrieben und dialektgeographisch interpretiert.
Das multiple Myelom ist trotz intensiver Forschung eine bisher unheilbare maligne Plasmazellerkrankung. Für jüngere Patienten ohne relevante Komorbiditäten ist die Behandlung mit einer Hochdosistherapie gefolgt von einer autologen Stammzelltransplantation der Goldstandard. Bei einer geringen Rate an therapiebedingter Mortalität erzielt diese eine hohe Rate an kompletten Remissionen und damit die Wahrscheinlichkeit für ein längeres Überleben. Um die optimale Konditionierungstherapie zu finden, wurde eine Vielzahl von Chemotherapeutika, teilweise gekoppelt mit Ganzkörperbestrahlung, getestet.
In dem in dieser Dissertation schwerpunktmäßig analysierten Langzeit-Datensatzes der „DSMM I“-Studie erfolgte der prospektive Vergleich einer Doppelhochdosis-Chemotherapie mit Melphalan und zweimaliger autologer Stammzelltransplantation und einer Einfachhochdosis-Therapie mit modifizierter Ganzkörperbestrahlung, Busulfan und Cyclophosphamid und einfacher autologer Stammzelltransplantation. Es wurde untersucht, ob sich eines der beiden Konditionierungsschemata hinsichtlich des ereignisfreien Überlebens, des Gesamtüberlebens, des maximalen Ansprechens auf die Therapie oder der Toxizität überlegen zeigte. Bisher publizierte Studien wiesen einen Vorteil der Tandem-Hochdosistherapie gegenüber der Einfachhochdosis-Therapie nach. In dieser Studie hatten beide Therapiegruppen ein exzellentes Gesamtüberleben. Es zeigte sich jedoch keine Überlegenheit einer der Therapien für das ereignisfreie und Gesamtüberleben, trotz signifikant höherer Ansprechrate unter Melphalan. Nach modifizierter Ganzkörperbestrahlung war, wie bereits in anderen Studien beschrieben, die Rate an Nebenwirkungen signifikant erhöht. Die Patienten litten vor allem unter Mukositis, Schmerzen und Pneumonitis. Somit ist die Doppelhochdosistherapie mit Melphalan Therapie der Wahl.
Die mediane Nachbeobachtungszeit von knapp 7 Jahren ist im Gegensatz zu vielen anderen Publikationen sehr viel länger als das mediane ereignisfreie Überleben. Dies spricht für die Validität der Daten.
Als erste kommerziell verfügbare Technologie der Quanteninformation ermöglicht die Quanten-Schlüsselverteilung eine sichere Datenübertragung indem einzelne Photonen oder quantenmechanisch verschränkte Photonenpaare zur Erzeugung eines Schlüssels verwendet werden. Die hierfür benötigten nicht-klassischen Photonen-Zustände können durch Halbleiter-Quantenpunkte erzeugt werden. Im Gegensatz zu anderen Quanten-Emittern wie isolierten Atomen, organischen Molekülen oder Fehlstellen in Diamantnanokristallen bieten diese zudem den Vorteil, direkt in komplexe Halbleiter-Mikrostrukturen integriert werden zu können. Quantenpunkte sind somit prädestiniert für die Entwicklung neuartiger optoelektronischer Bauelemente auf einer skalierbaren Technologieplattform.
Vor diesem Hintergrund werden in der vorliegenden Arbeit die Eigenschaften elektrisch gepumpter Quantenpunkt-Mikrostrukturen untersucht. Als optisch aktives Medium dienen dabei selbstorganisierte InAs/GaAs-Quantenpunkte. Die Zielsetzung ist die Erzeugung nicht-klassischen Lichts für Anwendungen in der Quantenkommunikation, wobei ein besonderer Fokus auf dem elektrischen Betrieb der entsprechenden Quantenlichtquellen liegt. Dabei werden sowohl ausgeprägte Resonatoreffekte im Regime der schwachen Licht-Materie-Wechselwirkung ausgenutzt, um helle Einzelphotonenquellen zu realisieren, als auch die Eigenschaften korrelierter Photonenpaare zweier spektral separierter Quantenpunkt-Zustände analysiert. Als Untersuchungsmethode wird in erster Linie die spektral und zeitlich hochauflösende Mikro-Lumineszenz-Spektroskopie bei kryogenen Temperaturen eingesetzt. Zudem erfolgen Experimente zur Photonenstatistik anhand von Messungen der Auto- sowie Kreuzkorrelationsfunktion zweiter Ordnung. Wie im Folgenden aufgeführt, gelingt dabei der Bogenschlag von grundlegenden Untersuchungen an Quantenpunkt-Mikrostrukturen bis hin zur erstmaligen Implementierung elektrisch getriggerter Quantenpunkt-Einzelphotonenquellen in realistischen Experimenten zur Quanten-Schlüsselverteilung außerhalb einer geschützten Laborumgebung.
Elektrisch getriggerte Einzelphotonenquellen:
Für die Erzeugung elektrisch getriggerter, einzelner Photonen wurden Quantenpunkte in Mikroresonatoren eingebettet. Diese basieren auf dotierten, zylindrischen Fabry-Pérot Mikrosäulenresonatoren, deren Design bezüglich der Photonen-Auskoppeleffizienz optimiert wurde. […] Anhand von Messungen zur Photonenstatistik konnte für diese spektral resonant gekoppelten Quantenpunkt-Mikroresonatorsysteme sowohl unter kontinuierlicher- als auch unter gepulst-elektrischer Anregung Einzelphotonen-Emission nachgewiesen werden. […] Anhand einer eingehenden Analyse der Emissionsraten sowie der elektrischen Injektionseffizienzen bei Anregungs-Repetitionsraten von bis zu 220 MHz konnte gezeigt werden, dass die untersuchten Mikroresonatoren zudem als äußerst effiziente, elektrisch getriggerte Einzelphotonenquellen eingesetzt werden können. Sowohl bezüglich der Einzelphotonen-Emissionsraten von bis zu (47,0+/-6,9) MHz als auch der Gesamteffizienz der Bauteile bis hin zu (34+/-7) % konnten dabei Rekordwerte erzielt werden.
Korrelierte Photonenpaare elektrisch gepumpter Quantenpunkte:
[…]
Quanten-Schlüsselverteilung mit elektrisch getriggerten Einzelphotonenquellen:
Ausgehend von den grundlegenden Untersuchungen dieser Arbeit, erfolgte die erstmalige Implementierung elektrisch getriggerter Quantenpunkt-Einzelphotonenquellen in Experimenten zur Quanten-Schlüsselverteilung. Basierend auf den eingehend analysierten Quantenpunkt-Mikroresonatoren, wurden dabei zwei Experimente in Freistrahloptik mit unterschiedlichen Übertragungsdistanzen durchgeführt. In beiden Fällen wurde ein BB84-Protokoll nachgeahmt, indem auf die einzelnen Photonen eine feststehende Abfolge von vier unterschiedlichen Polarisationszuständen aufmoduliert wurde. Das erste Experiment, durchgeführt im Labormaßstab in Würzburg, basierte auf einem Quantenkanal mit einer Länge von etwa 40 cm und arbeitete bei einer Taktrate von 183 MHz. Die höchste dabei erzielte ausgesiebte Schlüsselrate (engl. sifted-key rate) betrug 35,4 kbit/s bei einem Quanten-Bitfehlerverhältnis (QBER) von 3,8 %. Der Einzelphotonen-Charakter der Emission innerhalb des Quantenkanals konnte jeweils eindeutig nachgewiesen werden […].
Das zweite Experiment zur Quanten-Schlüsselverteilung wurde mittels zweier Teleskope über eine Distanz von 500 m in der Münchner Innenstadt zwischen den Dächern zweier Gebäude der Ludwig-Maximilians-Universität realisiert. […] Bei einer Taktrate von 125 MHz konnte mit diesem System im Einzelphotonen-Regime eine maximale sifted-key rate von 11,6 kbit/s bei einem QBER von 6,2 % erzielt werden. Diese erstmalige Implementierung elektrisch betriebener, nicht-klassischer Lichtquellen in Experimenten zur Quanten-Schlüsselverteilung stellt einen wichtigen Schritt hinsichtlich der Realisierung effizienter und praktikabler Systeme für die Quantenkommunikation dar.
Verschiedene historische und geographische Faktoren führten zur geschichtlichen Kontinuität
der Existenz der Stadt Arrapḫa über etwa 4000 Jahre bis hin zum heutigen Kirkuk. Darunter zählen
besondere Vorteile der Standortwahl der ursprünglichen Siedlung1117, welche heute als Zitadelle von
Kirkuk bezeichnet wird. Eine künftige archäologische Ausgrabung in der Zitadelle von Kirkuk
mithilfe der überlieferten Quellen aus den genannten Perioden lässt sicherlich ein genaues Bild über
die Struktur der Stadt geben.
Hintergrund: Bei der Einleitung einer Narkose eines nicht-nüchternen Patienten wird das Relaxanz in unmittelbarer Folge zum Induktionsmittel appliziert. Welches der Hypnotika Propofol, Etomidat oder Methohexital führt am schnellsten zur ausreichend tiefen Narkose?
Material/Methoden: Standardisierte Narkoseinduktion, je 20 ASA1/2 Patienten pro Medikament. Bestimmung Schlaftiefe mittels CSI: 1. vor Beginn , nach Midazolamgabe, 2. zwei Min. nach Fentanylgabe, 3. direkt nach Gabe des Hypnotikum (Dauer Injektion 1Min.), 4. nach 1 Min.
Propofol 3 mg/kg KG, Etomidat 0,3 mg/kg KG, Methohexital 1 mg/kg KG. Fentanyl 3 µg/kg KG, Midazolam 7,5mg
Ergebnisse: CSI direkt nach Injektion bei Methohexital mit 70,80 (+/-13,93) niedriger (p=0,024) als bei Propofol mit 81,05 (+/-10,82) und als bei Etomidat (p=0,026) mit 81,45 (+/-12,04). Abnahme des CSI während der Injektion bei Methohexital mit -9,6 (+/-12,14) größer (p=0,006) als bei Propofol mit –0,1 (+/-8,31). CSI <60 direkt nach Injektion bei Propofol 2x, Etomidat 3x, Methohexital 4x , nach einer Minute Propofol 17x, Etomidat 10x, Methohexital 16x.
Schlussfolgerung: Methohexital ermöglicht eine schnellere Narkoseinduktion als Etomidat und Propofol.
Um die Nachhaltigkeit und die flächendeckende Präsenz der Religion in der Menschheitsgeschichte zu erklären, wird in dieser Arbeit durch die Untersuchung des Verhältnisses des Religionsphänomens zum Wesen des Menschen nach einer intrinsischen Verbindung gesucht. Die Arbeit beginnt mit der Explikation des Religionsbegriffs. Hier war versucht die Möglichkeit, die Notwendigkeit und den Zweck des nomen collectivum „Religion“ – Religion im universellen Sinn - und dessen Definierung zu begründen. Die Erklärung setzt mit der etymologischen Untersuchung des Begriffs fort, in der festgestellt wurde, dass das von Cicero vorgeschlagene „re-legere“ dem Religionsphänomen am nächsten steht, da es durch die Hervorhebung des Akts der „Wiederholung“ die Handlung des Menschen zum Kern des Religionsphänomens macht. Um den Rahmen dieses Phänomens definieren zu können würden zwei Grenzfälle – den Buddhismus und die Esoterik untersucht und erörtert. Es folgte die Erklärung der Grundelemente der Religion: die Metaphysik, der Glaube, der Kult und die Moral.
Danach wurde das Wesen des Menschen im Hinblick auf sein Verhältnis zum Religionsphänomen untersucht. Hervorgehoben wurde hier die Grundbedürftigkeit des Menschen, der Seinsmangel, der sich teilweise in der Sinnfrage zum Ausdruck bringt. In diesem Zusammenhang wurde auch das Sein-Wollen des Menschen als der Ur-Anlass der Religion erörtet.
Schließlich wurde versucht einen Zusammenhang zwischen der Sinnfrage als Ausdruck des Seinsmangels des Menschen und der Religion als Heilsweg und als Reaktion des Menschen auf beide herzustellen.
In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt.
Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:
Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).
Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.
Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.
Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.
Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
Wachstum und Charakterisierung von Quantenpunkt-Mikrotürmchen mit adiabatischer Modenanpassung
(2013)
Verschiedene Konzepte zur Realisierung einer geeigneten Umgebung für Licht-
Materie-Wechselwirkung konkurrieren um Anerkennung und eine ständige Optimierung
der Systemparameter findet statt. Das Konzept von Mikrotürmchen scheint
prädestiniert, da es viele anwendungsfreundliche Eigenschaften in sich vereint. Allerdings
stellt die drastische Abnahme des Q Faktors für kleiner werdende Durchmesser
d einen wesentlichen Limitierungsfaktor dieser Strukturen dar. Für viele Anwendungen
resultiert daraus ein Kompromiss aus hohem Q Faktor und kleinem
Modenvolumen der Strukturen, wodurch das volle Potential des Resonatorsystems
nicht ausgeschöpft werden kann. Ziel dieser Arbeit war es, die drastische Abnahme
des Q Faktors von Mikrotürmchen mit Durchmessern um 1μm aufzuheben und
dadurch Resonatoren mit d < 1μm für ausgeprägte Licht-Materie-Wechselwirkung
herzustellen.
Dazu wurde erstmalig beabsichtigt eine Modenanpassung in Mikrotürmchen vorgenommen.
Mittels Molekularstrahlepitaxie konnte eine Übergangsregion, bestehend
aus drei Segmenten, in diese Strukturen implementiert und so ein adiabatischer
Modenübergang zwischen der aktiven Mittelschicht und den Spiegelbereichen
vorgenommen werden. Der positive Einfluss dadurch ergab sich in einer signifikanten
Verbesserung des gemessenen Q Faktors für Durchmesser unter 1μm.
Für d = 0.85μm konnte ein Q Faktor von 14 400 bestimmt werden. Dies stellt damit
den höchsten je gemessenen Wert für Mikrotürmchen im Submikrometerbereich
dar. Dadurch wird ein Bereich mit Modenvolumina < 3 kubischen Wellenlängen erschlossen und ausgeprägte Wechselwirkungseffekte im Mikrotürmchensystem sind zu erwarten. Starke
Quantenpunkt-Licht-Kopplung konnte in diesen Strukturen nachgewiesen werden.
Die höchste Vakuum-Rabiaufspaltung betrug 85μeV und die Visibilität wurde zu
0.41 bestimmt. Im Zuge der weiteren Optimierung der Systemparameter für die starke
Kopplung wurde ein ex-situ Ausheilschritt auf die verwendete Quantenpunktsorte
angewendet. In magnetooptischen Untersuchungen konnte damit eine Verdopplung
der mittleren Oszillatorstärke auf einen Wert von 12 abgeschätzt werden.
Weiter konnte in adiabatischen Mikrotürmchen über einen großen Durchmesserbereich
von 2.25 bis 0.95μm eindeutiger Laserbetrieb des Quantenpunktensembles
nachgewiesen werden. Dabei konnte eine kontinuierliche Reduzierung der Laserschwelle
von über zwei Größenordnungen für kleiner werdende Durchmesser beobachtet
werden. Für Durchmesser < 1.6μm betrug der Beta-Faktor der Mikrolaser in
etwa 0.5. Sie zeigten damit beinahe schwellenloses Verhalten.
Zuletzt wurde der elektrische Betrieb von adiabatischen Mikrotürmchen gezeigt. Dafür
wurde eine dotierte Struktur mit adiabatischem Design hergestellt. Im Vergleich
zur undotierten Struktur fielen die gemessenen Q Faktoren in etwa um 5 000 geringer
aus. Die spektralen Eigenschaften sowohl des Resonators als auch einzelner
Quantenpunktlinien zeigten vernachlässigbare Abhängigkeit der Anregungsart (optisch
oder elektrisch) und zeugen von einem erfolgreichen Konzept zum elektrischen
Betrieb der Bauteile. Zeitaufgelöste Messungen erlaubten die Beobachtung von interessanten
Dynamiken der Rekombination von Ladungsträgern in den Proben. Als
Ursache dafür wurde ein hohes intrinsisches Feld, welches auf Grund des Designs
der Schichtstruktur entsteht, identifiziert. Weiter zeigte sich, dass sich das interne
Feld durch Anregungsart und extern angelegte Spannungen manipulieren lässt.
Zur Erhöhung der mechanischen Stabilität mineralischer Knochenzemente aus Calciumorthophosphaten (CPC) wurde in einem TTCP/DCPA-System das Zementedukt TTCP mit verschiedenen biokompatiblen Oxiden (SiO2, TiO2, ZrO2) während des Herstellungsprozesses dotiert. Dies führte zur Bildung von Calciummetallaten und einer Herabsetzung der Löslichkeit der TTCP-Komponente des Zements. Gegenüber einem oxidfreien Zement konnte die Druckfestigkeit von 65 MPa auf 80 MPa (SiO2) bzw. 100 MPa (TiO2) gesteigert werden.
In einem zweiten Ansatz zur Verbesserung der Injizierbarkeit wurden die Wechselwirkungen der Partikeloberflächen mit der flüssigen Zementphase betrachtet. Durch biokompatible Additive sollte eine repulsive elektrostatische Wechselwirkung eingestellt werden, um Partikelagglomerate effektiv zu dispergieren und eine verflüssigende Wirkung zu erreichen. Die Injizierbarkeit eines TTCP/DCPA-Zements durch eine Kanüle mit 800 µm Durchmesser konnte durch die Verwendung von 500 mM tri-Natriumzitrat-Lösung aufgrund einer deutlichen Herabsetzung der Viskosität der Zementpaste signifikant gesteigert werden (>95%, P/L 3,3/1, Kraftaufwand 20 N).
Abschließend wurde der Einfluss der Partikelgrößenverteilung auf die Festigkeit und Injizierbarkeit einer auf monomodaler Partikelgrößenverteilung basierten Zementmatrix untersucht. Hierzu wurden einem mechanisch aktivierten a-TCP-System unreaktive, feinkörnige Füllstoffpopulationen (TiO2, CaHPO4, CaCO3) zugesetzt und systematisch deren Effekt in Verbindung mit einer Partikelaufladung durch tri-Natriumzitrat auf die rheologischen und mechanischen Eigenschaften untersucht.
Erst die Kombination einer bimodalen Partikelgrößenverteilung mit tri-Natriumzitrat-Lösung führte zu einer starken Erniedrigung der Viskosität, damit zur nahezu vollständigen Injizierbarkeit der Zemente und einer teilweise signifikanten Steigerung der mechanischen Festigkeiten (z.B. 72 MPa reiner a-TCP-Zement auf 142 MPa mit Zusatz von CaHPO4).
Baumgraphen
(2013)
Die meisten Ansätze zur Analyse von Sätzen eröffnen die Möglichkeit einer graphischen Darstellung. Eine solche graphische Darstellung wird oft als „Baumgraph“ oder „Baumdiagramm“ bezeichnet. Um solche Baumgraphen verschiedener Analysemodelle geht es in der vorliegenden Arbeit. Einleitend wird kurz ihre Geschichte behandelt. Im ersten Teil der Arbeit wird dann auf eine Variante des Konstituentenmodells des französischen Linguisten Monneret eingegangen, im zweiten Teil wird das Dependenzmodell nach Tesnière betrachtet und im dritten Teil wird schließlich das Analysemodell der Germanistik Würzburg, welches Elemente der beiden zuvor gesehenen Ansätze vereint, vorgestellt und der französischen Sprache angepasst. Zuerst wird jeweils ein Blick auf die Modelle selbst geworfen, dann jedoch steht vor allem die Anwendung – und somit die graphische Darstellung von Satzanalysen in Baumgraphen – im Vordergrund: Es werden nach den drei vorgestellten Modellen stets sowohl die Fabel „La Cigale et la Fourmi“ von Jean de La Fontaine als auch ein Satz aus Bossuets „Panégyrique de saint Paul“ analysiert und abgebildet. Über die wiederholte Analyse derselben Sätze soll ein besserer Vergleich der Baumgraphen ermöglicht werden. Im letzten Teil werden die Baumgraphen der drei Modelle kritisch betrachtet. Es versteht sich von selbst, dass eine solche kritische Betrachtung nicht allumfassend sein kann. Die Aufmerksamkeit soll darum gezielt auf einige bedeutende Vor- und Nachteile der Baumgraphen gerichtet werden.
Osteoporose ist einer der häufigsten Knochenerkrankungen im fortschreitenden Alter und zählt, aufgrund der damit verbundenen hohen direkten und indirekten Behandlungskosten, zu einer der zehn wichtigsten volkswirtschaftlichen Krankheiten. Die Behandlung der Osteoporose ist langjährig und umfasst eine medikamentöse Therapie auf der Basis einer „knochengesunden“ Lebensweise hinsichtlich Ernährung und Bewegung. Im Rahmen von Untersuchungen zur Linderung von postmenopausalen Beschwerden, zeigte ein Extrakt der Pflanze Cimicifuga racemosa Potential zu osteoprotektiver Wirksamkeit und rückte somit in den Fokus für eine mögliche Anwendung in der Therapie und Prophylaxe von Osteoporose. Das Ziel der vorliegenden Arbeit war es daher, in enger Zusammenarbeit mit der Bionorica SE, welche für die Aufreinigung und Fraktionierung des Pflanzenextraktes zuständig war, und mit der Arbeitsgruppe um Prof. Wuttke, welche parallele Rattenstudien durchführte, Methoden anzuwenden, mit denen osteoprotektive Wirksamkeiten nachgewiesen und auf einzelne Fraktionen des Extraktes limitiert werden können. ...
Ergebnisse einer retrospektiven Studie an der Universität Würzburg:
Patienten und Methoden:
In einer retrospektiven Studie wurden Einflussfaktoren auf die Lokoregionäre Kontrolle, das Gesamtüberleben und das rezidivfreie Überleben von 106 Patienten, mit histologisch gesicherten Oropharynxkarzinomen (28 T1, 46 T2, 25 T3 und 7 T4 Tumore, mit lymphatischer Beteiligung in 78 Fällen), mit uni- und multivariaten Analysen untersucht.
Das mediane Alter bei Primärdiagnose betrug 55 Jahre. Es wurde eine mediane Nachbeobachtungszeit 36 Monaten erreicht (zwischen 5 bis 126 Monate). In 18 Fällen (17%) konnte der Primärtumor in sano entfernt werden (Sicherheitsabstand > 3mm). In 34 Fällen (32%) bestand ein knapper Sicherheitsabstand (definitionsgemäß < als 3mm) und in 54 Fällen (51%) waren die Resektatränder nicht frei von Tumorzellen (R1 Resektion). Patienten, welche eine Chemotherapie aufgrund des erhöhten Rezidivrisikos erhielten, machten 24% (25 Patienten) des Patientenkollektivs aus.
Behandlungskonzept
Das Tumorbett des Primärtumors und die zervikalen lymphatischen Abflussgebiete erhielten mediane Bestrahlungsdosen von 56 Gy (2 Gy/ Behandlung, 5 Fraktionen pro Woche). Patienten mit R0-Resektion erhielten Bestrahlungsdosen von 56-60Gy. Bei Patienten mit knappen Resektatrand wurde das Tumorbett mit einer höheren Dosis von 60-66Gy bestrahlt, R1 Resektionen wurden mit einer Boost-Aufsättigung bis zu einer Gesamtdosis von 66-70 Gy behandelt. Patienten im UICC-Stadium 4, mit erhöhtem Rezidivrisiko, machten 24% (25 Patienten) des Patientenkollektivs aus. Diese Patienten erhielten je nach Nierenfunktion und Blutbild eine zusätzliche Chemotherapie mit Cisplatin (40mg/m² wöchentlich) in 1-4 Zyklen, sowie eine Boost-Aufsättigung des Tumorbettes bis zu einer Gesamtdosis von 66-70 Gy.
Ergebnisse der univariaten Analysen mittels Kaplan-Maier Plot Verfahren:
lokoregionäre Kontrolle
Mit einer medianen Nachbeobachtungszeit von 36 Monaten wurde eine 5 Jahres Rezidivfreiheit bei 87% der Patienten erzielt. Davon wurden 80% der Rezidive innerhalb der ersten 24 Monate diagnostiziert. Bei Patienten mit R0 Status wurde in 16,7 % ein Rezidiv diagnostiziert, bei Patienten mit R1 Situation in 17% und bei Patienten mit knappen Resektatrand wurde nur in 6 % ein Rezidiv diagnostiziert. Als statistisch signifikanter Einflussfaktor des Rezidiv erwies sich nur das Gesamttumorvolumen.
Gesamtüberlebensrate
Es wurde eine 3- und 5- Jahresüberlebensrate von 75% und 66% erreicht.
Die 5JÜR bezüglich der Radikalität der Resektion erreichte bei R0 Resektion 61%, 71% bei Patienten mit knappen Resektatrand und 65% bei R1 Situation.
Bei Patienten mit einem T1 Tumorstadium ergab sich eine 5JÜR von 82%, bei T2 67%, bei T3 52% und für Patienten im T4 Stadium ergab sich eine 5JÜR von 43 %.
Patienten mit N0-Status verzeichneten eine 5JÜR von 68%, mit N1-Status 82%, N2a,b-Status 68%, N2c-Status 36% und N3-Status ergab 43%.
Patienten ohne adjuvante Chemotherapie erzielten eine 5JÜR von 69% und Patienten, die aufgrund des erhöhten Rezidivrisikos eine Chemotherapie erhielten, erreichten 56%.
Die Einflussgröße der Rezidiventwicklung erbrachte eine 5JÜR von 13%, wogegen sie bei Patienten ohne Rezidiv 75% betrug.
Patienten, welche einen 2. Tumor entwickelten, verzeichneten eine 5JÜR von 45% gegenüber 71% bei Patienten ohne 2.Tumor.
Der Vergleich der Bestrahlungsdosen im Tumorbett ergab, dass Patienten mit einer Gesamtdosis unter/gleich 66Gy eine 5JÜR von 71% erreichten und 62% bei Gesamtdosen über 66Gy.
Die 5JÜR bezüglich des Tumorvolumens des Primärtumors, inklusive der befallenen Lymphknoten, erbrachte in der ersten Gruppe von unter 10ml Tumorvolumen 77%, von 10 bis 20ml 83%, von 20 bis 50ml 52% und in der vierten Gruppe mit über 50ml Tumorvolumen 33%.
Mit einem Grading von 2 wurde 69% und mit einem Grading von 3 wurde bei Patienten eine 5JÜR von 61% berechnet.
In der univariaten Analyse mittels des Kaplan-Maier-Plot-Verfahrens, zeigte sich in der 5-Jahres Überlebenskurve eine Signifikanz der Einflussgrößen Tumorstadium (p-Wert 0,003), Rezidivereignis (p-Wert 0,000), 2.Tumor (p-Wert 0,001) und Tumorvolumen (p-Wert 0,000).
Rezidivfreies Überleben
Das rezidivfreie Überleben betrug nach 3 Jahren 68% und nach 5 Jahren 64%.
Bezüglich der Radikalität der Resektion ermittelte man für Patienten mit R0 Resektion nach 5 Jahren ein rezidivfreies Überleben von 61%, 71% bei knappen Resektatrand und 61% bei R1 Situation.
Patienten mit einem T1 Stadium erreichten ein 5 jähriges rezidivfreies Überleben in 82%, mit T2 Stadium 67%, mit T3 Stadium 48% und Patienten im T4 Tumorstadium erzielten 43 %.
Patienten mit N0-Status verzeichneten ein 5 jähriges rezidivfreies Überleben von 64%, mit N1-Status 82%, N2a,b-Status 68%, N2c-Status 27% und ein N3-Status ergab 43%.
Patienten ohne adjuvante Chemotherapie erreichten in 68% und Patienten, welche eine Chemotherapie erhielten, erreichten ein 5 jähriges rezidivfreies Überleben in 52%.
Patienten, welche einen 2. Tumor entwickelten, verzeichneten eine 5 jähriges rezidivfreies Überleben von 45%, gegenüber 68% bei Patienten ohne 2.Tumor.
Die Gegenüberstellung der Bestrahlungsdosen im Tumorbett ergab, dass Patienten mit einer Gesamtdosis unter/gleich 66Gy ein rezidivfreies 5-jähriges Überleben von 69% erreichten, hingegen Patienten mit mehr als 66Gy Bestrahlungsdosis 60% erzielten.
Das 5 jährige rezidivfreie Überleben in Bezug auf das Tumorvolumen des Primärtumors, inklusive der befallenen Lymphknoten, erbrachte in der ersten Gruppe von unter 10ml Tumorvolumen 77%, von 10 bis 20ml 79%, in der dritten Gruppe von 20 bis 50ml 48% und in der vierten Gruppe mit über 50ml Tumorvolumen wurde nach 5 Jahren ein rezidivfreies Überleben von 33% verzeichnet.
Mit einem Grading von 2, wurde 66% und mit einem Grading von 3 ergaben sich für die Patienten ein 5 jähriges rezidivfreies Überleben von 61%.
In der univariaten Analyse mittels des Kaplan-Maier-Plot-Verfahren, zeigte sich in der Kurve für das 5-jährige rezidivfreie Überleben, eine Signifikanz der Einflussgrößen Tumorstadium (p-Wert 0,003), Lymphknotenstatus (p-Wert 0,048), Chemotherapie (p-Wert 0,047), 2.Tumor (p-Wert 0,003) und Tumorvolumen (p-Wert 0,000).
Ergebnisse der multivarianten Analysen
In einer multivariaten Cox-Regressions Analyse erwiesen sich die Einflussgrößen des Tumorstadiums und die Entwicklung eines 2. Tumors, bezüglich des Gesamt- und des rezidivfreien Überlebens, als statistisch signifikant.
Das Tumorstadium konnte, in Bezug auf das Gesamtüberleben, eine Signifikanz von 0,015 ermittelt werden. Im Hinblick auf das rezidivfreie Überleben konnte ihm eine Signifikanz von 0,03 zugeschreiben werden. Die Einflussgröße des 2.Tumors ergab für das Gesamtüberleben eine Signifikanz von ebenfalls 0,015 und eine Signifikanz von 0,025 bezüglich des rezidivfreien Überlebens.
Schlussfolgerung:
Mit dem Therapiekonzept konnte eine Verbesserung der 5JÜR und des 5-jährigen rezidivfreien Überlebens erzielt werden. Die Patienten mit knappen Resektatrand wiesen durchweg bessere Ergebnisse auf als Patienten mit R0-Resektion. Als Konsequenz dieser Ergebnisse müsste man eine Angleichung des bisherigen Therapiekonzeptes der R0 Patienten an das der knapp resezierten Patienten vornehmen.
Bei Patienten mit einem primär erhöhtem Rezidivrisiko, welche eine simultane Radiochemotherapie erhielten, erzielte man mit diesem Therapiekonzept eine Angleichung der 5JÜR an Patienten ohne dieses. Es zeigte sich hierbei in der multivariaten Analyse, sowohl beim Gesamtüberleben, als auch beim rezidivfreien Überleben kein statistisch signifikanter Unterschied (Gesamtüberleben p-Wert 0,064, rezidivfreies Überleben p-Wert 0,085).
In einigen Punkten konnte diese Arbeit die Ergebnisse früherer Studien bestätigen.
Einstellungs- und Nadelmodi (wenn auch mit unterschiedlicher Ausprägung)
haben einen Einfluss auf die verbesserte Sichtbarkeit der Regionalanästhesienadeln
im Ultraschall. Damit diese sonographisch besser erkannt werden, sollten sie
in einem flacheren Winkel (30-45°) eingestochen werden. Größere Nadellumina
haben einen Vorteil in der Sichtbarkeit im Ultraschall. Auch konnte gezeigt werden,
dass der Nadelschliff einen Einfluss darauf hat, wie gut die Anästhesiekanülenspitze
sonographisch gesehen wird. Allein die (in der Arbeit untersuchten) Nadelbeschichtungs-
Arten brachten keinen wesentlichen Effekt für die verbesserte
Erkennbarkeit.
Es war jedoch auffallend, dass die subjektiven und objektiven Resultate in einem
relativ hohen Maße nicht übereinstimmten. Gründe dafür sehe ich v.a. im gewählten
Verfahren der objektiven Untersuchung (mit der Bildbearbeitungssoftware
muss die region of interest zielgenauer erfasst werden, um störende Umgebungseinflüsse
auszuschließen).
Echogene Nadeloberflächen (auch wenn diese nicht Gegenstand der vorliegenden
Untersuchung waren), weisen eine verbesserte Ultraschall-Reflexion auf. Sie
werden dazu beitragen, dass die sichere Anwendung der USRA weiter zunimmt.
Verbesserte Sonographiegeräte, zusätzliche Hilfsmittel (GPS-Unterstützung) und
neueste Nadelentwicklungen versprechen einen wichtigen Fortschritt auf dem
Gebiet der ultraschallunterstützten Regionalanästhesie (USRA). Diese Weiterentwicklungen
werden der USRA den Stellenwert als Gold-Standard in der
Regionalanästhesie sichern.
Die Felder und Techniken der modernen Fortpflanzungsmedizin sind im Laufe der Jahre weit fortgeschritten. Um dem Wunsch eines kinderlosen Ehepaares nach Nachwuchs nachzugehen, haben sich Methoden entwickelt, um diesen zu erfüllen. Hierbei haben sich die In-Vitro-Fertilisation und die daraus entwickelte Modifikation, die Intracytoplasmatische Spermieninjektion etabliert. Auch wenn die seit dem Jahre 2004 durchgeführten IVF-Geburten, aufgrund mangelnder Krankenkassenleistungen, entschieden gesunken sind und die kumulative Schwangerschaftsrate nach drei durchgeführten Embryotransfers maximal bei 50-70 % liegt, ist die In-Vitro-Fertilisation und mit ihr verwandten Intracytoplasmatischen Spermieninjektion (im Falle mangelnder Spermienqualität) neben der homologen und heterologen Insemination das älteste und das neuste reproduktionsmedizinische Verfahren, das zur Behandlung des unerfüllten Kinderwunsches eingesetzt wird. Des Weiteren haben sich die Präimplantations- und Pränataldiagnostik einen weit verbreiten Ruf verschafft, um Erbkrankheiten und Fehlentwicklungen des Embryos noch in frühester Entwicklungszeit aufzudecken. Dass hierbei der Embryo und das noch ungeborene Leben in eine Zwickmühle ethischer und rechtlicher Beurteilungen rutschen, scheint offensichtlich. Denn das seit 1990 in Kraft getretene Embryonenschutzgesetz regelt zwar weite Bereiche rund um den Schutz des Embryos, hinterlässt aber auch Lücken. Somit werden Rufe laut nach der Schaffung eines eigenen Fortpflanzungsmedizingesetzes, um die ungeregelten Aspekte der Fortpflanzungsmedizin zu klären [457]. Die rechtliche Lage der modernen Fortpflanzungsmedizin in Deutschland ist recht komplex. Für die vielen verschiedenen Methoden herrschen unterschiedlich rechtliche Regelungen. So wird zum Beispiel die In-Vitro-Fertilisation rechtlich anders geregelt als die Pränatal- und die Präimplantaionsdiagnostik. In Hinsicht auf die In-Vitro-Fertilisation dient als rechtliche Grundlage das Embryonenschutzgesetz, welches besagt, dass „bereits die befruchtete, entwicklungsfähige menschliche Eizelle vom Zeitpunkt der Kernverschmelzung an“ einem Embryo mit all seinen Rechten entspricht. Die Pränataldiagnostik stützt sich zum großen Teil auf die von der Bundesärztekammer verabschiedeten „Richtlinien zur pränatalen Diagnostik von Krankheiten und Krankheitsdispositionen“ sowie auf eine „Erklärung zum Schwangerschaftsabbruch nach Pränataldiagnostik“. In diesen Richtlinien wird darauf hingewiesen, dass zum einen das Lebensrecht des Ungeborenen, zum anderen die Handlungsfreiheit der Eltern in die jeweiligen Entscheidungen einbezogen werden muss. Die in Deutschland zwischen Zulassung und Nichtzulassung befindliche Präimplantationsdiagnostik beruft sich auf das Embryonenschutzgesetz, welches den Verbrauch von Embryonen verbietet, da nach dem Gesetz eine Blastomere einem ganzen Embryo gleichgestellt sei. Ebenso besagt das ESchG, dass eine Eizelle nur zum Zweck der Herbeiführung einer Schwangerschaft befruchtet werden darf, da aber die Präimplantationsdiagnostik die genetische Analyse beabsichtigt, steht dies in einem Widerspruch. Jedoch wird in und außerhalb von Europa der Umgang mit IVF, Präimplantations- und Pränataldiagnostik verschieden gehandhabt. Während sich Deutschland und Österreich für ein klares Verbot der Präimplantationsdiagnostik aussprechen, ist diese in Frankreich und Großbritannien grundsätzlich möglich. Wenn man sich die halachischen Grundlagen im Umgang mit der modernen Fortpflanzungsmedizin vor Augen führt, ist es im Kern der Status des Embryos, der Juden und Christen in zwei völlig verschiedene Richtungen laufen lässt. Die Halacha spricht von menschlichem Leben erst von der Geburt an und geht von mehreren unterscheidbaren Stadien in der Entwicklung des vorgeburtlichen Lebens im Mutterleib aus. Ganz anders die christliche Ethik, sie erkennt bereits dem Embryo die Schutzwürdigkeit menschlichen Lebens zu. Wenn das jüdische Recht die Schutzwürdigkeit eines Embryos nach der entscheidenden Frage differenziert, ob er jünger oder älter als vierzig Tage ist, wird deutlich, dass die IVF als grundsätzlich rechtmäßig gelten muss, da die Embryonen, die im Zuge jeder IVF zerstört oder weitergehend genutzt werden, keinen besonderen Schutz in Anspruch nehmen können. Ebenso fallen jene Vorgänge und Maßnahmen einer modernen PID in jenen Zeitraum von vierzig Tagen nach der Empfängnis, innerhalb dessen nach jahrtausendalter Einstellung des jüdischen Rechts noch kein menschliches Leben im Mutterleib existiert. Somit steht die Halacha einer begründeten PID nicht im Wege. Eine zweite große Kernaussage dieser Dissertation ist die, dass sich das jüdische Religionsgesetz (die Halacha), welche unter anderem die Anleitungen zum Umgang mit der modernen Reproduktionsmedizin liefert, stets darauf bedacht ist, neu ausgelegt zu werden. Die Halacha ist ein immerwährend andauernder Prozess von Erneuerung, welche sich den aktuellen und örtlichen Gegebenheiten kritisch anpassen muss. So auch der Umgang mit der modernen Fortpflanzungsmedizin, der einem immerwährenden Prozess von Erneuerungen unterlegen ist.
Die Nierentransplantation ist neben den verschiedenen Formen der Dialyse die wichtigste Therapieform für Patienten mit terminaler Niereninsuffizienz.
In dieser retrospektiven, monozentrischen Analyse wurden 204 Patienten erfasst, die von 2000 bis 2007 eine Nierentransplantation im Universitätsklinikum Würzburg erhalten hatten. Die Patienten wurden an Hand ihrer Nierenfunktion in vier Gruppen eingeteilt und miteinander verglichen. Ziel dieser Studie war es, Einflussfaktoren auf die Nierenfunktion, Komplikationen und Kosten im ersten Jahr nach Nierentransplantation zu untersuchen.
Wir konnten zeigen, dass eine längere Wartezeit auf ein Spenderorgan und ein hoher präoperativer BMI mit einer schlechteren Nierenfunktion nach Transplantation assoziiert waren. Außerdem fiel auf, dass in den Gruppen mit besserer Nierenfunktion nach Transplantation häufiger Lebendspenden durchgeführt worden waren.
Zu den häufigsten Komplikationen im ersten Jahr nach Nierentransplantation gehörten Anämien, akute Abstoßungsreaktionen, die verzögerte Funktionsaufnahme des Organs, Infektionen, arterielle Hypertonie und Verschlechterungen der Transplantatfunktion. Eine höhere Komplikationsrate war mit einer schlechteren Nierenfunktion und höheren Kosten assoziiert. Der Kostenmehraufwand ergab sich aus der Zunahme an ambulanten Interventionen sowie verlängerten bzw. zusätzlichen stationären Aufenthalten. In unserer Studie hatte die Gruppe mit der schlechtesten Nierenfunktion die meisten Komplikationen und verursachte so die höchsten Kosten.
Wir errechneten einen Gesamtkostenbetrag von 43.000€ im ersten Jahr nach Nierentransplantation pro Patient. 48 % der Gesamtkosten entfielen dabei auf die DRG-Pauschale der Transplantation selbst, 28% auf die immunsuppressive Therapie sowie 10 % auf die Therapie und Prophylaxe von Infektionen.
Somit lagen unsere Kosten für eine Nierentransplantation im ersten Jahr verglichen mit den Kosten für die Hämodialyse in anderen, aktuellen Studien gleich oder höher. Im Vergleich zu den Kosten der Peritonealdialyse anderer Studien waren sie durchgehend höher. Die Kosten für einen transplantierten Patienten reduzierten sich laut Studien jedoch deutlich ab dem zweiten Jahr auf durchschnittlich 12.000€. Die Kosten einer Hämodialyse beliefen sich je nach Studie auf 28.000-43.000 € pro Jahr. Eine Peritonealdialyse kostete ca. 25.000€.
Damit ist die Transplantation mittel- und langfristig die günstigste Therapieform. Aus finanzieller Sicht sollten mehr dialysepflichtige Patienten mittels Peritonealdialyse behandelt und die Transplantationszahlen möglichst gesteigert werden.
Da die Anzahl an Nierentransplantationen von Risikopatienten weiter steigen wird, ist mit einer Zunahme von behandlungsbedürftigen Komplikationen und nachfolgend mit einer Kostensteigerung zu rechnen. Zukünftig sollte versucht werden, Wartezeiten zu reduzieren, die Anzahl der Lebendspenden zu steigern und möglichst Normalgewicht vor Transplantation zu erreichen.
Um dem Kostenanstieg entgegenzuwirken, sollten Kosteneinsparungen durch Optimierung der immunsuppressiven Schemata und verstärkten Einsatz von Generika realisiert werden. Auch eine bessere Infektionsprophylaxe sowie ein frühzeitiges Erkennen und Behandeln von manifesten Infektionen könnten die Kosten weiter reduzieren und die Transplantation ökonomisch noch attraktiver werden lassen.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
Hintergrund:
In dieser retrospektiven Studie soll der Einfluss von Rauchen, Alter und systemischer Medikation auf den Behandlungserfolg einer Anti-VEGF Therapie bei altersbedingter Makuladegeneration (AMD) über einen Zeitraum von 24 Monaten untersucht werden.
Patienten und Methode:
100 Patienten mit choroidalen Neovaskularisationen bei AMD wurden in die Studie eingeschlossen. Best korrigierter Visus (BV), Anzahl der Injektionen in 24 Monaten sowie Rauchgewohnheiten und systemische Medikation wurden für die Analysen berücksichtigt. Ausschlusskriterium war ein BV < 0,1 zu Beginn der Behandlung.
Resultate:
42 Raucher (inkl. 31 Exraucher) mit 23,5 Packyears (Py) im Median wurden identifiziert. Je mehr Py ein Patient rauchte, umso niedriger war sein BV nach der letzten Injektion (p = 0,009). Je mehr Zigaretten pro Tag ein Raucher rauchte, umso mehr Injektionen erhielt er in 24 Monaten (p = 0,0042). Bluthochdruckpatienten hatten einen niedrigeren BV nach der letzten Injektion (p = 0,045).
Schlussfolgerungen
Rauchen ist nicht nur ein Risikofaktor für die Entwicklung einer AMD, sondern auch für die Effektivität der Anti-VEGF Therapie. Auch unter sozioökonomischen Gesichtspunkten ist dies ein weiterer Grund, Patienten zur Aufgabe des Rauchens aufzufordern.
Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg.
Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert.
Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten.
Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen.
Einleitung:
Steady-State- Muster-ERGs (PERGs) werden in der Glaukomfrühdiagnostik angewandt. Da die transienten PERG-Komponenten N35, P50 und N95 unter schnellen Reizbedingungen nicht zu erkennen sind, können bisher keine Aussagen über die Beteiligung einzelner Retinaschichten an der Reizantwort gemacht werden. Mit der Deconvolution-Methode (CLAD) wurden 2004 akustisch evozierte transiente Antworten aus hochfrequenten Messungen entfaltet. In dieser Arbeit wird CLAD beim PERG validiert um herauszufinden, ob bei Messungen mit hohen Reizfrequenzen deutliche transiente Antworten entfaltet werden.
Methodik:
Es wurden 3 Reizbedingungen mit nicht-isochronen Stimuli der mittleren Frequenz 16,7 rps verglichen. Der Abstand zwischen 2 Stimuli variierte zwischen 15 und 105 ms, 30 und 90 ms oder 45 und 75 ms, der mittlere Abstand betrug jedoch immer 60 ms. Als Referenz wurden konventionelle transiente (1,4 rps) und Steady-State-Messungen (16,7 rps) durchgeführt. Um sie zu validieren, wurden in einem zweiten Schritt aus den transienten CLAD-Steady-State-Antworten synthetisiert und diese mit der Steady-State-Referenzmessung verglichen.
Ergebnisse:
Die große Übereinstimmung der synthetisierten Steady-State-Antworten mit der Referenzmessung im Bezug auf Amplitude und –Kurvenform bestätigte, dass die entfalteten transienten Antworten „trotz“ Abweichungen von konventionellen PERG-Antworten plausibel sind. Allerdings hatte der konkrete Stimulusabstand Einfluss auf die PERG-Antwort: die Amplituden der 3 CLAD-Reizbedingungen wichen signifikant voneinander ab.
Diskussion:
Diese Studie zeigte, dass durch CLAD transiente Reizantworten aus Messungen hoher Frequenz gewonnen werden können. Ob der Einsatz von CLAD Vorteile in der Glaukomfrühdiagnostik erbringt und der exakte retinale Ursprung der Antwortkomponenten ist in künftigen Studien zu validieren. Durch CLAD könnte es in Zukunft möglich werden, auf elektrophysiologischem Wege den Beitrag einzelner Retinaschichten bei Retinapathologien genauer aufzuzeigen.
Die Arbeit beschäftigte sich mit Untersuchungen zu photovernetzbaren und –strukturierbaren (Hybrid-)Polymeren, um Grundlagen für die Herstellung von Trägergerüststrukturen (Scaffolds) auf Basis photovernetzbarer (Hybrid-)Polymere zu legen und damit in der Zukunft patientenindividuelle medizinische Werkstücke, die beliebig durch Zwei-Photonen-Absorptionsprozesse in drei Dimensionen strukturierbar sind, für die Regenerative Medizin zu ermöglichen.
Dafür wurden zunächst die zum Teil in der Literatur unbekannten unterschiedlichen Monomere Acr-1, MAcr-2, Acr-3, MAcr-4 und DiMAcr-5 synthetisiert. Dabei handelt es sich um einfache und gut vergleichbare organische (Meth-)Acrylat-Monomere, die mono- bzw. difunktional in ihren photochemisch reaktiven Gruppen sind. Die synthetisierten organischen Monomere Acr-3, MAcr-4 und DiMAcr-5 wurden in verschiedenen Verhältnissen mit dem anorganisch-organischen Methacrylat-basierten Hybridpolymers ORMOCER® I kombiniert.
Die (Co-)Polymerisation der unterschiedlichen Formulierungen wurde in situ mittels UV-DSC-Untersuchung verfolgt. Dabei wurden bei diesen Untersuchungen zum Teil deutliche Unterschiede im Reaktionsverlauf der einzelnen Materialformulierungen festgestellt. So konnten zum Beispiel bei Monomermischungen ein schnellerer Polymerisationsverlauf sowie eine höhere maximale Polymerisationsrate als bei den jeweiligen Einzelkomponenten beobachtet werden (Synergieeffekt). Diese Beobachtungen wurden anhand der Monomerstruktur (unterschiedliche Diffusionsfähigkeiten im vergelten, aber noch nicht erstarrten System durch Mono- bzw. Difunktionalität) und der Art der funktionellen Gruppe (Acrylat- bzw. Methacrylatgruppe) erklärt.
Weiterhin wurden der Einfluss des verwendeten Photoinitiators und dessen eingesetzte Konzentration auf die photochemisch-induzierte Copolymerisation eines ausgewählten Systems beleuchtet. Dazu wurden verschiedene Einflussfaktoren der Initiation betrachtet. Neben der eingesetzten Initiatorkonzentration spielen auch die Absorptionseigenschaften, die umgebende Matrix und die Initiatoreffizienz eine große Rolle für den Reaktionsverlauf der photochemischen Vernetzung. Weiterhin wurden die Photoinitiatoren in unterschiedlichen Konzentrationen eingesetzt, um die dadurch induzierte Veränderung des Reaktionsverlaufs zu betrachten. Aus den Einflüssen auf die Reaktionsverläufe konnte geschlossen werden, dass diese sowie auch die maximale Polymerisationsrate RP,max und damit die Reaktionskinetik nicht in jedem Fall linear mit der Initiatorkonzentration zunehmen muss.
Erste generelle 2PP-Strukturierungen wurden zudem an ausgewählten Material-formulierungen durchgeführt. Dabei zeigte sich, dass alle Formulierungen bei bestimmten Parameterkombinationen aus Laserleistung und Schreibgeschwindigkeit mittels 2PP strukturiert werden konnten. Außerdem wurden bei den verschiedenen Formulierungen bei gleicher Parameterkombination unterschiedliche Strukturbreiten und damit erstmalig unterschiedliche Strukturvolumina beobachtet. Diese unterschiedlichen Volumina konnten erstmalig mit den unterschiedlichen Reaktionsverläufen der Materialformulierungen korreliert werden. Dabei zeigte sich, dass das chemische Wechselwirkungsvolumen von der Funktionalität der eingesetzten Materialkomponenten abhängig ist, da davon der Grad an Quervernetzung abhängt, der bestimmt, ob ausreichend vernetzte Voxel und Strukturen entstehen, die durch einen Entwicklungsschritt nicht mehr entfernt werden.
Im zweiten Teil der Arbeit wurde ein biokompatibles und photostrukturierbares Hybridpolymer (RENACER® MB-I) entwickelt, welches mittels 2PP strukturiert werden konnte, was anhand kleiner wie auch großer Scaffolds mit dem Material demonstriert wurde. Dazu wurde das kommerziell erhältliche Alkoxysilan-Molekül
O-(Methacryloxyethyl)-N-(triethoxysilylpropyl)urethan als Precursor verwendet. Durch eine bewusst unvollständige Hydrolyse- und Kondensationsreaktion konnte aus dem Precursorsilan ein Hybridpolymerharz hergestellt werden, welches anorganisch vorverknüpft war. Weiterhin wies es sowohl als Volumenpolymer, als auch in Form von Scaffold-Strukturen eine sehr gute Biokompatibilität auf. Um zu untersuchen, ob die im Hybridpolymer enthaltenen prinzipiell degradierbaren Gruppen unter physiologischen Bedingungen tatsächlich degradieren und Teile aus dem Polymerverband herausgelöst werden können, wurde ein selbstentwickeltes Verfahren für stationäre Degradations-untersuchungen in phosphat-gepufferter Saline (PBS, pH = 7,4) verwendet. Die durch die photochemische Polymerisation neu entstandenen Ketten besaßen ihrer Natur gemäß keine hydrolysierbaren Einheiten, weshalb das Hybridpolymer nicht vollständig degradieren kann. Es konnte jedoch ein prinzipieller Zugang zu Gerüstträgerstrukturen auf Basis photovernetzbarer Polymere für die Regenerative Medizin geschaffen werden.
Regulatorische T-Zellen (Tregs) spielen eine ntscheidende Rolle beim Erhalt der Immunhomöostase und bei der Kontrolle überschießender Immunantworten. Sie können anhand ihres Entstehungsortes in im Thymus generierte natürliche Tregs (nTregs) und in der Peripherie generierte induzierte Tregs (iTregs) unterteilt werden. Ihr Phänotyp wie auch ihre Funktion werden zu einem großen Teil durch den transkriptionellen Masterregulator Foxp3 kontrolliert. Das kostimulatorische Molekül CD28 wird von nTregs für die Differenzierung benötigt und von Tregs und konventionellen T-Zellen (Tkons) für ihre Aktivierung. Superagonistische CD28 spezifische monoklonale Antikörper (CD28SA) aktivieren T-Zellen im
Gegensatz zu konventionellen anti-CD28 Antikörpern ohne zusätzliche Ligation des T-Zellrezeptors. Die in vivo Applikation des CD28SA bewirkt eine starke Aktivierung der
Tregs und eine präferentielle Expansion der Tregs gegenüber Tkons. Dies erklärt die präventive und therapeutische Wirkung der CD28SA Behandlung in verschiedenen Krankheitsmodellen bei Nagern. Die erste Anwendung des humanisierten CD28SA TGN1412 führte in den Testpersonen jedoch zu einem unerwarteten „Cytokine-Release Syndrom“. Daher wurde hier am Mausmodell der Zusammenhang zwischen Treg Aktivierung und systemischer Zytokinausschüttung näher untersucht. Es konnte gezeigt werden, dass die CD28SA vermittelte Proliferation der T-Zellen abhängig vom CD28 Signal und von parakrinem
Interleukin (IL)-2 ist. Durch die in vivo Depletion der Tregs vor der CD28SA Injektion wurde deutlich, dass es auch in Mäusen nach CD28SA Stimulation zu einer systemischen Ausschüttung pro-inflammatorischer Zytokine kommt, die jedoch, im Gegensatz zum humanen System, von Tregs effektiv kontrolliert werden kann. Um die usschüttung pro-inflammatorischer Zytokine zu verhindern, wäre eine zusätzliche prophylaktische Behandlung
mit Corticosteroiden möglich, da diese auch in hohen Dosen die CD28SA vermittelte Aktivierung und Expansion der Tregs nicht beeinflussen. Neben der Expansion wird durch die Stimulation mit CD28SA auch die Produktion des
anti-inflammatorischen Zytokins IL-10 in Tregs induziert und so eine genauere Untersuchung des Ursprungs und des Schicksals IL-10 produzierender Tregs ermöglicht. Diese
Tregs exprimieren im Vergleich zu IL-10 negativen Tregs ein höheres Niveau an Molekülen, die mit einer supprimierenden Aktivität verbunden sind. Zudem werden IL-10 Produzenten aufgrund der Veränderung im Expressionsmuster der Migrationsrezeptoren nach der Stimulation von einem lymphknotensuchenden CCR7+CCR5-CCR6- zu einem entzündungssuchenden CCR7-CCR5+CCR6+ Phänotyp verstärkt in Bereiche mit stattfindender Immunantwort rekrutiert. Schließlich sind IL-10 produzierende Tregs von CD28SA stimu2 lierten Mäusen in vitro stärker apoptoseanfällig als die IL-10 negativen Tregs. Die
Aktivierung der Tregs scheint somit die terminale Differenzierung zu einem IL-10 produzierenden
Effektorphänotyp mit begrenzter Lebensdauer zu induzieren. Dies führt auch zur Beendigung der Immunsuppression. Die Kombination aus schwachem TZR und starkem CD28 Signal, die die CD28SA Stimulation
in naiven T-Zellen auslöst, induziert zumindest in vitro abhängig von IL-2 und TGFβ effizient die Expression von Foxp3. Die so generierten iTregs haben, ähnlich wie konventionell in vitro erzeugte iTregs, in Bezug auf die Expression von Oberflächenmolekülen und den Methylierungsstatus bestimmter Regionen des Foxp3 Gens einen Phänotyp, der zwischen dem von Tkons und Tregs liegt. Da auch die supprimierende Aktivität der iTregs
geringer ist als die der ex vivo Tregs bedarf es einer weiteren Optimierung des Stimulationsprotokolls,
um diese Zellen für therapeutische Zwecke verwenden zu können. Zusammenfassend zeigt diese Arbeit, dass die superagonistische Stimulation des CD28 Moleküls ein vielseitig einsetzbares Instrument ist. Einerseits können durch die CD28SA Stimulation Tregs polyklonal aktiviert und für therapeutische Zwecke mobilisiert werden
und andererseits kann die besondere Art der T-Zellstimulation auch dazu genutzt werden, neue Aspekte von nTregs und iTregs zu untersuchen.
Die vorliegende Arbeit befasst sich mit der Synthese, Charakterisierung und Untersuchung von Foldameren und ihren Untereinheiten im Rahmen des FOLDAPPI-Projekts (Foldamers against Protein-Protein Interaction). Des Weiteren wurden neuartig substituierte Chinoline dargestellt, um sie im Rahmen des SFB 630 auf ihre Hemmwirkung gegen Leishmanien und Trypanosomen zu untersuchen.
Im ersten Projekt wurde ein neuartiges Monomer entwickelt, welches die Wasserlöslichkeit der Foldamere verbessern sollte. Zu diesem Zweck wurde eine zusätzliche, hoch polare Seitenkette in den Chinolingrundkörper eingeführt. Dieses modifizierte Monomer konnte erfolgreich synthetisiert werden. Um die Verbesserung der Wasserlöslichkeit gegenüber dem zuvor verwendeten Monomer zu testen, wurde erfolgreich ein Tetramer daraus aufgebaut. Das entschützte Tetramer konnte jedoch aufgrund seiner hohen Polarität nicht ausreichend gereinigt werden, um die abschließenden Löslichkeitsuntersuchungen durchzuführen. Um dieses Problem zu umgehen, wurde von der Umsetzung in Lösung auf Reaktionen an der Festphase gewechselt, was die Reinigung der Produkte wesentlich erleichtern sollte. Dabei wurde eine vom Arbeitskreis von I. Huc neu entwickelte mikrowellengestützte Methode verwendet. Das Referenzmolekül mit den bisher verwendeten Seitenketten konnte so ohne Probleme synthetisiert und seine Löslichkeit in Wasser bestimmt werden. Beim neu entwickelten Monomer kam es allerdings beim Aufbau des Tetrameres zu einer Zersetzungsreaktion, weshalb das abschließende Ziel nicht erreicht werden konnte.
Im zweiten Projekt wurden zwei Ziele angestrebt: Zunächst sollte ein Weg gefunden werden, die Einführung der Seitenketten an den Chinolinen erst an der festen Phase vorzunehmen, wodurch viele Syntheseschritte bei der Vorbereitung der Monomere gespart werden könnten. Zusätzlich sollte eine neue Kupplungsreaktion entwickelt werden, wodurch der Entschützungsschritt des zu kuppelnden Amins an der Festphase eingespart werden kann. Dadurch würde vor allem bei großen Foldameren das Harz geschont und die Gefahr einer Degenerierung wesentlich verringert. Für die Kupplungsreaktion vorgesehen war ein azidfunktionalisiertes Monomer, das mittels Staudinger-Reaktion verknüpft werden sollte. Das entsprechende Monomer konnte erfolgreich synthetisiert werden. Auch das erste Ziel, die Einführung der Seitenkette an der Festphase, konnte erfolgreich durchgeführt werden. Leider war die Verwirklichung beider Ziele über die gleiche Syntheseroute nicht ohne weiteres möglich. Da das Monomer ohne die Seitenkette deutlich hydrophiler wurde, wäre eine Trocknungsmethode bei erhöhter Temperatur von Vorteil gewesen, um gebundenes Wasser vollständig zu entfernen. Da das Monomer allerdings auch eine Azidfunktion trägt und sich bei 130 °C explosionsartig zersetzt, war dies nicht möglich. Allerdings genügen bereits geringe Spuren von Feuchtigkeit, um die Staudinger-Reaktion zu beeinträchtigten. Deshalb konnte das zweite Projektziel nicht verwirklicht werden.
Im dritten Projekt wurde die Herstellung einer großen Foldamer-Bibliothek für die Untersuchung der Bindungsaffinität gegenüber IL-4 angestrebt. Sie sollte aus 48 Hexameren bestehen, wobei an drei Monomeren die Seitenketten variiert werden sollten, um ein breites Spektum an verschiedenen Kombinationen von Wechselwirkungen abzudecken. Dazu wurden zunächst vier verschiedene Monomere synthetisiert, welche eine aromatisch, eine unpolare, eine anionische bzw. eine kationische Seitenkette enthielten. Für die Kupplung der Foldamere wurde eine an die Synthese von Aminosäuresequenzen angelehnte Methode entwickelt und erfolgreich angewandt. So konnten alle 48 Foldamere erfolgreich synthetisiert und 46 von ihnen in ausreichenden Mengen für die Untersuchung an IL-4 gereinigt werden. Leider liegen für diese Bibliothek bisher keine abschließenden Ergebnisse über die Inhibitionseigenschaften gegenüber IL-4 vor. Strukturell sehr ähnliche Foldamere zeigten jedoch in ersten Experimenten eine Inhibition von IL-4 was eine Wirksamkeit der neu erstellten Bibliothek vermuten lässt.
Das vierte Projekt wurde im Rahmen des SFB 630 durchgeführt. Hierzu wurden einige der ursprünglich für andere Projekte hergestellten Foldamere ausgewählt, teilweise entschützt bzw. an der Nitrogruppe reduziert und anschließend auf Ihre Aktivität gegen Leishmanien und Trypanosomen getestet. Es zeigte sich, dass das verwendete Substitutionsmuster, in den gestesteten Konzentrationen nicht gegen Leishmanien und Trypanosomen wirksam ist. Es eignet sich also nicht für die Erstellung einer neuen Leitstruktur gegen diese beiden Erreger. Allerdings trat im untersuchten Konzentrationsbereich auch keine Zytotoxizität auf, was eine interessante Information für die Verwendung der Foldamere und ihrer Bausteine in biologischen Systemen darstellt.
Die Phimose ist eine Verengung der Vorhaut, die durch das Unvermögen der Retraktion des Präputiums über die Glans penis gekennzeichnet ist. Da dies zu Komplikationen wie Harnwegsobstruktion, Balanoposthitis und Paraphimose führen kann, ist oftmals eine Therapie indiziert. Diesbezüglich zeigte sich in den letzten Jahren ein Wandel im Therapieregime. Die früher routinemäßig durchgeführte Zirkumzision wurde von der konservativen Therapie mittels topischer Steroidapplikation abgelöst.
Anhand einer retrospektiven Datenanalyse wurden die Therapien, der im Klinikum der Julius- Maximilians- Universität Würzburg als behandlungsbedürftig diagnostizierten Phimosen im Zeitraum vom 01.01.2005 bis 31.12.2010 hinsichtlich der Therapiewahl sowie der jeweiligen Erfolgs-und Komplikationsraten eruiert. Desweiteren wurden Vorhäute von 36 Patienten verblindet lichtmikroskopisch untersucht, um Hinweise auf die Ursachen für ein Versagen der konservativen Therapie mit Betnesol- V® Salbe 0,1% zu finden.
Ab 2009 entwickelte sich der Trend dahingehend, dass die konservative Therapie immer öfter und ab 2010 erstmals auch absolut gesehen häufiger als die operative Therapie durchgeführt wurde. Während die Erfolgsrate der Zirkumzision mit 99% hoch ist, zeigte sich die topische Steroidapplikation bei nur 70% als erfolgreich. Jedoch sind mit der Zirkumzision mehr Nebenwirkungen und Risiken wie Blutungen und Entzündungen sowie das operative Risiko verbunden. In Würzburg wurde kein Patient mit unerwünschten Arzneimittelwirkung der Steroide auffällig. Bei der lichtmikroskopischen Untersuchung stellte sich kein weg-weisender Unterschied zwischen den Vorhäuten der verschiedenen Patientengruppen dar.
Zusammenfassend lässt sich sagen, dass die topische Steroidapplikation, soweit keine Kontraindikationen wie z.B. eine Balanitis xerotica obliterans , eine Paraphimose oder Vernarbungen vorliegen, vor Indikationsstellung zur Operation, angeboten werden sollte, da somit 70% der Operationen vermieden werden können.
In einer retrospektiven Studie über den Zeitraum von Januar 1997 bis Januar 2009 wurde die Wirksamkeit einer intravenösen Dexamethason-Pulstherapie untersucht. In dieser Zeit waren 64 Patienten aufgrund einer schweren und therapieresistenten Lichen-planus-Form an der Klinik und Poliklinik für Dermatologie, Venerologie und Allergologie der Universität Würzburg mit dieser Therapie behandelt worden. Die Auswertung umfasst demografische und klinische, aber auch labordiagnostische und therapeutische Daten, die retrospektiv erfasst, deskriptiv ausgewertet und deren Ergebnisse mit der Literatur verglichen wurden.
Die Indikation für eine intravenöse Dexamethason-Pulstherapie wurde gestellt, wenn sich bei schweren Lichen-planus-Formen kein Ansprechen auf topische Steroide oder andere Therapeutika zeigte. Die Therapiezyklen wurden stationär durchgeführt, um eine durchgehende Überwachung des Patienten zu gewährleisten und auftretende Komplikationen und Nebenwirkungen frühzeitig zu erkennen und adäquat behandeln zu können.
Nach bis zu 3 Zyklen profitierten 56 Patienten (90 %) von der intravenösen Dexamethason-Pulstherapie. Bei 13 Patienten waren mehr als 3 Zyklen notwendig, worunter es bei 12 Patienten zu einer deutlichen Befundverbesserung kam.
Die längste Behandlungsdauer bis zur vollständigen Remission betrug 7 Zyklen, die kürzeste 2 Zyklen. Ein sehr gutes Ansprechen zeigte sich bei Patienten mit oralem Lichen planus und Lichen planus exanthematicus.
In einem Nachbeobachtungszeitraum von durchschnittlich 18 Monaten profitierten 41 Patienten (66 %) von der Behandlung: 26 Patienten (42 %) wiesen einen gebesserten Hautbefund, 15 Patienten (24 %) eine vollständige Remission auf. Im Rahmen einer aktuellen telefonischen Rückfrage nach durchschnittlich 7,6 Jahren waren 24 Patienten (39 %) erscheinungsfrei und 9 Patienten (15 %) mit gebessertem Hautbefund.
Die besten Langzeitergebnisse zeigten sich beim Lichen planus exanthematicus. Am schlechtesten sprach der Lichen planus follicularis an.
Während der gesamten Therapiedauer trat bei keinem Patienten eine schwerwiegende Komplikation auf. Milde Nebenwirkungen waren gut kontrollierbar und nach Abschluss der Therapie voll reversibel. Bei einem Patienten trat nach bereits abgeschlossener Therapie mit insgesamt 6 durchgeführten Zyklen ein Cataracta incipiens auf.
Zusammengefasst zeigen die Ergebnisse, dass die intravenöse Dexamethason-Pulstherapie für die Behandlung des schweren und therapieresistenten Lichen planus eine wirkungsvolle, nachhaltige Therapieoption ist. Aufgrund der geringen Nebenwirkungen stellt sie eine gute Alternative zu anderen Therapien dar. Eine Verlängerung der Behandlungsdauer über 3 Zyklen sollte individuell an das Ansprechen angepasst werden.
Die Simulationstechnologie in der Medizin hat in den letzten Jahren große Fortschritte gemacht. In der Zwischenzeit gibt es auch für Herzkatheteruntersuchungen und -interventionen „Virtual reality“ Simulatoren, die ein realistisches Training von Kathetereingriffen erlauben. Nicht geklärt ist bislang, ob Simulationstraining das Stressniveau des Untersuchers reduzieren kann.
Im Rahmen dieser Studie wurde zur Beantwortung der genannten Fragestellung der Effekt von Virtual-Reality-Training auf das Stressniveau von Anfängern in der interventionellen Kardiologie untersucht. Hierzu wurde eine randomisiert-stratifizierte Studie bei 33 Anfängern in der interventionellen Kardiologie durchgeführt. Die Probanden wurden in eine Kontroll- und Simulationsgruppe aufgeteilt. Die Simulationsgruppe erhielt ein achtstündiges intensives Training an verschiedenen Simulatoren, während die Kontrollgruppe kein Simulationstraining, sondern lediglich eine theoretische Wissensvermittlung erhielt. Alle Teilnehmer mussten unter realitätsnahen Umständen im Herzkatheterlabor der Universitätsklinik Würzburg innerhalb von 30 Minuten eine PCI an einem pulsatilen Herzkreislaufmodell durchführen. Die Probanden dokumentierten vor und nach der Prä- und Postevaluation ihr aktuelles „Befinden“ anhand eines psychologi-schen Fragebogens PANAS. Ebenso wurden die Probanden hinsichtlich ihrer manuellen Fähigkeiten nach einem strukturierten Evaluationsbogen von einem interventionell tätigen Kardiologen bewertet
Die Ergebnisse zeigten initial für die Parameter „aktiv, interessiert, freudig erregt, stark, angeregt, stolz, begeistert, wach, entschlossen und aufmerksam“ des Fragebogens PANAS keinen gruppenspezifischen Unterschied. Nach einem achtstündigen Simulationstraining gab die Simulationsgruppe eine signifikante Reduktion des Stressniveaus im Vergleich zur Kontrollgruppe an.
Die aktuelle Studie zeigte, dass das Training an den Virtual Reality Simulatoren die herkömmliche Ausbildung in effektiver Weise ergänzen kann.
Weitere Studien mit einer größeren und zugleich homogeneren Stichprobengröße sind nötig, um die genannten Hypothesen zu bestätigen.
Die Neuralentwicklung wird durch eine Vielzahl von Genen reguliert. Hierbei scheint der Notch-Signaltransduktionsweg eine wichtige Rolle zu spielen. Die primären Zielgene der Notch-Signalkaskaskade sind die Hes- und Hey-Gene. Die genaue Bedeutung der Signalkaskade, der Hes- und insbesondere der Hey-Gene für den Differenzierungsprozess neuraler Stamm- und Vorläuferzellen ist noch nicht bekannt.
Ziel dieser Arbeit war es, die Aufgaben von Notch und der Hey-Gene beim Differenzierungsprozess neuraler Stamm- und Vorläuferzellen genauer zu untersuchen.
Da das gezielte Ausschalten eines Gens eine aussagekräftige Methode zur Erforschung seiner Funktion ist, wurden zunächst neurale Stamm- und Vorläuferzellen in Form von sogenannten Neurosphären von Hey1-/- und Hey2-/- Mäuseembryonen mit denen von Wildtyp-Mäuseembryonen verglichen. Dabei differenzierten bei den Hey1-/- Neurosphärenkulturen ca. 6,6% (bei den Kontrollen 6,6%) und bei den Hey2-/- Kulturen 10,9% (Kontrollen 8,7%) der Zellen zu Neuronen. Eine komplette Inhibierung der Notch-Signalkaskade wurde durch das Etablieren von RBP-Jκ-/- Kulturen erreicht. RBP-Jκ-/- Zellen waren jedoch während der Differenzierung nur noch zu einem kleinen Teil in der Lage zu adhärieren, was weitere Experimente mit den Zellen unmöglich machte. Als nächstes sollten Neurosphären mit einer Überexpression von Hey1 mit Wildtyp-Neurosphären verglichen werden. Es gelang allerdings aufgrund einer schon hohen Ausgangsexpression von Hey1 in Neurosphären nur, die Expression zu verdreifachen, was für weitere Experimente nicht ausreichend schien.
Um die Prozesse, die auf Genebene während der Differenzierung neuraler Stamm- und Vorläuferzellen ablaufen, besser zu verstehen, wurden die Expression von Genen, die in der Neuralentwicklung und in der Notch-Signalkaskade eine Rolle spielen, in Wildtyp-Neurosphärenzellen mittels qRT-PCR zu verschiedenen Differenzierungszeitpunkten quantifiziert. Die Genexpression von Hes1 und Hes5, sowie Hey2 wurde während der Differenzierung zum Teil deutlich herunterreguliert. Die Gene Hes3, Hey1 und Id4 hingegen stiegen zunächst bis Tag 3 stark an, um dann an Tag 7 und 14 etwa wieder den Ausgangswert zu erreichen. Die Regulation der Gene war insgesamt recht uneinheitlich und nicht immer nachvollziehbar. Da diese teils widersprüchlichen Ergebnisse auf die vorgegebene Heterogenität einer Neurosphärenkultur zurückzuführen sein könnten, wurde nach einer Alternative zur Neurosphärenkultur gesucht.
Deshalb wurde im Weiteren versucht homogene Monolayerkulturen nach einem Protokoll von Conti et al. (2005) zu etablieren. Das Protokoll musste aber an einigen Stellen angepasst werden, um adäquate Kulturen zu erhalten. Da die Monolayerkulturen auf Gelatine nicht gut hafteten wurde auf eine Polyornithin-Beschichtung umgestellt. Außerdem wurde das NS-A Medium mit N-2 Zusatz aufgrund schlechter Proliferation der Zellen auf Neurobasalmedium mit B-27 Zusatz umgestellt. Färbungen dieser Monolayerkulturen zeigten, dass sich fast alle Zellen mit dem Stammzellmarker Nestin anfärben ließen und keine Zellen Tuj1+ (Neuronen) und nur einige wenige Zellen Gfap+ (Astrozyten) waren. Es ist deshalb wahrscheinlich, dass die Zellen in einer Monolayerkultur unter den oben beschriebenen Bedingungen hauptsächlich undifferenziert sind und neuralen Stamm- bzw. Vorläuferzellcharakter haben.
Fragestellung: Querschnittstudien konnten bei Kindern und Jugendlichen mit Deletion 22q11.2 eine Tendenz zu mit dem Alter zunehmenden Verhaltensauffälligkeiten verbunden mit einem Anstieg der elterlichen Stressbelastung zeigen. Die aktuelle Längsschnittstudie sollte diese Ergebnisse überprüfen.
Methodik: Mit Hilfe der deutschen Selbsthilfegruppe KiDS 22q11 wurden alle Hauptbezugspersonen, die bereits vier Jahre zuvor an einer Befragung zu Verhaltensauffälligkeiten und Stress teilgenommen hatten, anonymisiert um die Bearbeitung verschiedener Fragebögen gebeten.
Ergebnisse: 59 von 94 Hauptbezugspersonen sandten ausgefüllte Fragebögen zurück. Dabei wurden 54% aller Kinder und Jugendlichen (29 männlich, 30 weiblich, im Alter von 5,8 bis 18,9 Jahren, Mittelwert: 10,8 Jahre) von ihren Hauptbezugspersonen als verhaltensauffällig eingestuft (Gesamtwert Child Behavior Checklist [CBCL] bzw. Fragebogen über das Verhalten junger Erwachsener [YABCL]). In nahezu allen Bereichen der Child Behavior Checklist, mit der die Erfassung der Verhaltensauffälligkeiten erfolgte, kam es im Verlauf zu einer statistisch signifikanten Zunahme. Auch stieg die Stressbelastung der Hauptbezugspersonen, erfasst mittels Fragebogen Soziale Orientierungen von Eltern behinderter Kinder, im Vergleich zur Erstbefragung signifikant an, ohne dass sich jedoch die Lebenszufriedenheit signifikant verändert hätte. Das Ausmaß der elterlichen Stressbelastung korrelierte signifikant mit dem Gesamtproblemwert der CBCL.
Schlussfolgerungen: Die Ergebnisse der aktuellen Längsschnittstudie bestätigen die Befunde früherer Querschnittuntersuchungen hinsichtlich Verhaltensauffälligkeiten bei Kindern und Jugendlichen mit Deletion 22q11.2. Aufgrund der zunehmenden Verhaltensprobleme und der damit einhergehenden Stressbelastung ist mit einem erhöhten Beratungsbedarf der Hauptbezugspersonen und einer zunehmenden Behandlungsbedürftigkeit der Patienten zu rechnen.
Diese Arbeit untersucht die Relevanz des Transkriptionskofaktors Eya4 in der Entstehung und Entwicklung von Herzkrankheiten. Hierzu wurde, neben adenoviralen Transfektionsarbeiten in neonatalen Rattenkardiomyozyten, ein transgenes Mausmodell etabliert, wodurch die Identifikation von Downstreamtargets des Transkriptionskofaktors Eya4 im Sinne eines Signalweges ermöglicht wurde. Der Transkriptionskofaktor Eya4 wirkt als Suppressor des cyclinabhängigen Kinaseinhibitors p27, während die trunkierende Mutante des wildtypischen Proteins (E193) die Suppression auf p27 aufhebt.Phänotypisch entwickeln E193-überexprimierende Mäuse eine altersabhängig einsetzende DCM während die Eya4-überexprimierenden Tiere eine konzentrische Myokardhypertrophie entwickeln.
Klimawandelbedingte bzw. potenziell klimawandelbedingte Umweltmigration ist ein sehr komplexes und breites Feld. Es existiert eine Fülle von Studien, die sich in ihrer Herangehensweise unterscheiden, weshalb hier ein Systematisierungsvorschlag aufgezeigt wird. Mittels einer an den Richtlinien der Grounded Theory orientierten Analyse wurden Studien auf zentrale gemeinsame Kategorien hin untersucht und als Modell präsentiert. Dieses stellt jedoch kein abgeschlossenes System dar, sondern dient durch seine Offenheit als Gerüst, das mit Ergebnissen aus weiteren Fallstudien gefestigt werden kann.
Thrombozyten (Blutplättchen) sind die Vermittler der zellulären Hämostase. Ihre Fähigkeit zu Aggregieren und sich an das umgebende Gewebe verletzter Blutgefässe anzulagern, wird durch ein komplexes intrazelluläres Signaltransduktionsnetzwerk bestimmt, das sowohl aktivierende, als auch inhibierende Subnetzwerke beinhaltet. Das Verständnis dieser Prozesse ist von hoher medizinischer Bedeutung. Im Rahmen dieser Arbeit wurde die thrombozytäre Signaltransduktion sowohl mittels eines Boole'schen, als auch verschiedener dynamischer Modelle analysiert. Die Boole'sche Modellierung führte zu interessanten Erkenntnissen über das Zusammenwirken einzelner Subnetzwerke bei der Vermittlung irreversibler Plättchenaktivierung und zeigte Mechanismen der Interaktion mit dem hemmenden Prostaglandinsystem auf. Das Modell beinhaltet unter Anderem wichtige Systemkomponenten wie Calciumsignalgebung, Aktivierung von Schlüsselkinasen wie Src und PKC, Integrin-vermitteltes outside-in sowie inside-out Signalgebung und autokrine ADP- und Thromboxan-Produktion. Unter Verwendung dieses Boole'schen Ansatzes wurde weiterhin das System-eigene Schwellenwertverhalten analysiert. Dabei stellte sich eine umgekehrt proportionale Abhängigkeit des relativen aktivierenden Reizes, der notwendig ist um den Schwellenwert zu überschreiten, vom absoluten hemmenden Input heraus. Das System adaptiert demnach an höhere Prostaglandinkonzentrationen durch eine Erhöhung der Sensitivität für Aktivatoren wie dem van-Willebrandt-Faktor und Kollagen, und ermöglicht somit auch unter lokal hemmenden Bedingungen eine Plättchen-vermittelte Hämostase. Der nächste Schritt bestand in der Implementierung eines Differentialgleichungs-basierten Modells der thrombozytären Prostaglandin-Signaltransduktion, um einen detaillierten Überblick über die Dynamik des inhibierenden Netzwerkteils zu erhalten. Die kinetischen Parameter dieses Modells wurden teilweise der Literatur entnommen. Der andere Teil wurde anhand einer umfassenden Kombination dosis- und zeitabhängiger cAMP und phospho-VASP Messdaten geschätzt. Der Prozess beinhaltete mehrere Iterationen aus Modellvorhersagen einerseits und experimentellem Design andererseits. Das Modell liefert die quantitativen Effekte der Prostaglandinrezeptoren IP, DP1, EP3 und EP4 und des ADP-Rezeptors P2Y12 auf die zugrunde liegende Signalkaskade. EP4 zeigt den stärksten Effekt in der aktivierenden Fraktion, wohingegen EP3 einen stärkeren inhibitorischen Effekt ausübt, als der durch Clopidogrel hemmbare ADP-Rezeptor P2Y12. Weiterhin wurden die Eigenschaften des negativen feedback-loops der PKA auf den cAMP-Spiegel untersucht, und eine direkte Beeinflussung der Adenylatzyklase durch die PKA festgestellt, in Form einer Reduzierung der maximalen katalytischen Geschwindigkeit. Die Identifizierbarkeit der geschätzten Parameter wurde mittels profile-Likelihood-Schätzung untersucht. In einem dritten Schritt wurde ein sowohl die aktivierenden, als auch die hemmenden Netzwerkteile umfassendes dynamisches Modell implementiert. Die Topologie dieses Modells wurde in Anlehnung an die des Boole'schen Modells auf der Basis von a priori Wissen festgelegt. Die Modellparameter wurden anhand von Western-Blot, Calcium- und Aggregationsmessungen geschätzt. Auch hier wurde die Identifizierbarkeit der Modellparameter durch profile-likelihood-Schätzung überprüft. Die bei niedrigen Ligandenkonzentrationen auftretende Reversibilität der Plättchen-Aggregation konnte mittels dieses Modells reproduziert werden. Jedoch zeigte sich bei mittleren ADP-Konzentrationen ein Fließgleichgewicht in einem teilweise aktivierten Zustand, und damit kein bistabiles Schwellenwertverhalten. Inwiefern dieses Verhalten durch einen Umgebungs-basierteren Mechanismus des Alles-Oder-Nichts-Verhaltens begründet wird, bei dem der Übergang von reversibler zu irreversibler Aggregation mehr durch parakrine Effekte des gesammten Thrombus bestimmt wird, als durch spezifische Signaltransduktionseigenschaften der einzelnen Zelle, müssen zukünftige Experimente zeigen. Insgesamt geben die erstellten Modelle interessante Einblicke in die Funktionsweise der Thrombozyten und ermöglichen die Simulation von pharmakologischen und genetischen Einflüssen, wie Rezeptormodulationen und knock-outs. Sie geben damit Implikationen zur Entstehung und Behandlung pathophysiologischer Zustände, und wertvolle Denkanstöße für die weitere Forschung.
Umsetzungen N-heterocyclischer Carbene mit Boranen führen zur Bildung von „Lewis-Säure-Base-Addukten“. In Abhängigkeit des Substitutionsmusters der eingesetzten Borane bzw. Carbene eignen sich die erhaltenen Addukte als Ausgangsverbindungen zur Realisierung verschiedener Strukturmotive. Mit geeigneten Übergangsmetallfragmenten gelingt die Darstellung von sigma-Boran-Komplexen bzw. Basen-stabilisierter Boryl-Komplexe, welche mittels spektroskopischer Methoden sowohl im Festkörper, als auch in Lösung untersucht wurden. Ebenfalls gelingt die Synthese Basen-stabilisierter Borirane und einer tetraedrischen Borid-Spezies. Zudem wird ein selektiver Zugang zu Basen-stabilisierten Diborenen entwickelt, wobei deren Bindungssituation und Reaktivität im Detail diskutiert wird. So kann das B=B-Fragment in polymere Spezies eingebunden werden oder als Ligand an Übergangsmetalle koordinieren.
Die Würzburger Stadtgemeinde wurde in den Jahren von 1921-1933 sowie von 1946-1948 von Oberbürgermeister Dr. Hans Löffler geleitet. Wenngleich Löffler auch von zentraler Bedeutung für die Geschichte Würzburgs im 20. Jahrhundert war, wurde er dennoch von der geschichtlichen Wissenschaft bislang nicht vertieft berücksichtigt, weil das öffentliche Archivmaterial viel zu knapp ist und seine "Tagebücher" als verschollen galten. Dem Verfasser der vorliegenden Studie gelang es, den Verbleib dieser Tagebücher zu eruieren. Die Politik Hans Löfflers fundierte wie sich alsbald ergab unter anderem auf drei durchgängigen Persönlichkeitsstrukturen und Verhaltensmustern: Der Bürgerlichkeit, dem Liberalismus und der Religiosität. Keines dieser drei Merkmale lässt sich aus den öffentlichen Archivbeständen charakterisieren. Deswegen kam der Auswertung von Hans Löfflers Chronik eine besondere Bedeutung zu. Die spezifischen Schwierigkeiten der "(auto-)biografischen Illusion" (Pierre Bourdieu) waren gleichwohl zu berücksichtigen. Deshalb wurde vom Verfasser als Arbeitshypothese der "Biographisch-Kritische Methodenpluralismus" eingeführt. Aus Löfflers Egodokumenten ergaben sich zugleich auch aussagekräftige Datenquellen, nämlich die Entwicklung seines Einkommens in funktionaler Abhängigkeit zum Preisindex, des weiteren der quantitative Quellenverlauf, der einerseits interessante Hinweise darauf liefert, wann Löffler schreibt und in welchem Umfang - und wann die Arbeit an seiner Chronik ruht. Zugleich liefert der quantitative Quellenverlauf auch überaus interessante Erkenntnisse zur Relation von Erzählzeitpunkt und erzählter Zeit. Hans Löffler, dessen Familie aus dem Würzburgischen Amtsstädtchen Karlsstadt stammte, vollzog mit dem für die untere Mittelschicht typischen Ehrgeiz eine Juristenkarriere, die als solche typisch für das späte 19. Jahrhundert war. Der Umzug seiner Familie nach Würzburg, der Beitritt zum traditions- und einflussreichen Corps Bavaria und schließlich auch die Eheschließung mit einer Tochter aus der ebenso alten und wie wohlhabenden Würzburger Kaufmannsfamilie Held förderten den sozialen Aufstieg. Die politische Gesinnung Hans Löfflers lässt sich erst im Verlauf des Ersten Weltkriegs sowie während der anschließenden Doppelrevolution anhand des Quellenmaterials schärfer zeichnen. Dessen ungeachtet zeigte sich schon in frühen Jahren, hart an der Grenze zum 20. Jahrhundert, die Verehrung Löfflers für den Reichsgründer Otto von Bismarck und die Verachtung für Kaiser Wilhelm II. Schlussendlich vollzog Hans Löffler einen nahezu mühelosen Übergang von der Monarchie zur parlamentarischen Demokratie. Löffler schloss sich der Deutschen Demokratischen Partei (DDP), der Partei Max Webers, Thomas Manns und Albert Einsteins an. Nachdem sein Vorgänger Andreas Grieser in die Berliner Ministerialbürokratie gerufen worden war, wurde Hans Löffler 1921 ohne Gegenstimme vom Stadtrat zu dessen Nachfolger bestimmt. Während im Vergleichszeitraum insgesamt 11 Reichskanzler regierten, blieb Hans Löffler bis zu seiner Entlassung durch die Nationalsozialisten Oberbürgermeister von Würzburg. Seine restriktive Finanzpolitik, die als seine bedeutendste Leistung in Zeiten weltweiter wirtschaftlicher Rezession gelten muss, ermöglichte zugleich stadtpolitische Projekte, die Würzburg bis heute prägen. Dazu zählen neben der Fertigstellung der Universitätsklinik Luitpoldkrankenhaus die Etablierung des Mozartfests, die Eingemeindung der Stadt Heidingsfeld oder auch der Beginn der Besiedelung der heutigen Sieboldshöhe. Nachdem auch in Würzburg die Nationalsozialisten im Verlauf der 1920er Jahre begonnen hatten gegen den jüdischen Teil der Bevölkerung zu hetzen, stellt sich Hans Löffler unerschrocken vor seine Mitbürger und wurde von den Nationalsozialisten deshalb pejorativ als "Judenbürgermeister" bezeichnet. Bei der Reichspräsidentenwahl 1932 kam es auch in Würzburg zu einem letzten Aufbäumen bürgerlicher Kräfte im Rahmen einer sogenannten "Hindenburgfront". Die Existenz dieser Hindenburgfront in Würzburg wurde in der vorliegenden Studie erstmals aufgezeigt. Als 1933 auch im katholischen Würzburg die Nationalsozialisten die Macht übernahmen, musste Dr. Hans Löffler auf sein Oberbürgermeisteramt verzichten, kaufte sich ein kleines Anwesen am Chiemsee und ging in die Innere Emigration. Unmittelbarer Auslöser dieses Umzugs war der Umstand, dass Löffler wiederholt hinterbracht wurde, Würzburger Bürger, die bei der Stadtverwaltung mit ihrem Anliegen nicht durchdringen konnten, hätten sich mit Bemerkungen beschwert, zu Löfflers Zeiten sei alles besser gewesen. Diese Konfliktlage wurde Löffler zu gefährlich. Während der gesamten nationalsozialistischen Zeit war Löffler in Chieming und besuchte nur ab und an Würzburg. Löffler pflegte in Chieming den Gartenbau und las unter anderem Dissidenten-Literatur. Nach dem Einmarsch der US Army bekannte Löffler in schonungsloser Offenheit, dass er die in den Konzentrationslagern verübten Verbrechen all die Jahre geahnt habe. Zugleich verspürte Dr. Hans Löffler den Wunsch, wieder Oberbürger-meister des zu 90 % zerstörten Würzburgs zu werden, scheute sich aber, sich selbst ins Gespräch zu bringen. Nachdem sich in Bayern ein erheblicher Teil der Liberalen aus der Zeit vor 1933 der neu gegründeten CSU angeschlossen hatten, wurde Löffler für diese neue Partei von 1946-1948 nochmals Oberbürgermeister von Würzburg. Über seine Rolle bei der Gründung der CSU und innerhalb der CSU gibt es nicht den geringsten Hinweis. 1948 schied Löffler aus Altersgründen aus dem Amt und verbrachte die verbleibenden Jahre bis zu seinem Tod 1955 in seinem Haus an der Keesburgstraße. Am Ende stand die Erkenntnis, dass nur allzu wenige die Ehre für sich in Anspruch nehmen konnten, sich während des schwärzesten Kapitels der deutschen Geschichte wie Hans Löffler verhalten zu haben. Und in der Tat: Matthias Matussek hat nach dem Tod von Joachim Fest über diesen geschrieben, was auch bei Hans Löffler festzustellen ist: "… das Gerade enthält immer einen stillen Vorwurf." Insofern ist Löfflers Lebensgang Anklage und Aufforderung gleichermaßen. Dass Löffler entschieden bürgerlich und zugleich ein linksliberaler Corpsstudent war, entspricht nicht jedermanns Geschichtsbild – aber der Lebenswirklichkeit. Hans Löffler dekliniert auf seine Weise einen jener Lebenswege, denen zufolge Leistung (nicht Abstammung) den sozialen Aufstieg innerhalb der "open society" ermöglicht. Löffler selbst sprach von der "Ethik des Bürgertums". Thomas Nipperdey hatte für das ausgehende lange 19. Jahrhundert festgestellt, die Zukunft sei belastet und umschattet, wie immer verhängt, letztlich aber offen gewesen. Die Person Hans Löfflers zeigt gerade für diese Epoche, dass verbreitete nationalistische oder antisemitische Anfechtungen nicht notwendigerweise und unausweichlich im Wahnsinn des Nationalsozialismus hätten enden müssen. Und schließlich: Karl Popper hatte postuliert, dass es dem kritischen Ra-tionalismus entsprechend zwingendes Merkmal einer wissenschaftlichen Aussage ist, dass diese sich dem Grunde nach falsifizieren lässt. Dementsprechend wäre es das ungünstigste, was Hans Löffler zuteilwerden könnte, wenn sein Wirken weiterhin im Schatten wissenschaftlicher Aus-einandersetzung bliebe. Eine Verifizierung, aber auch eine Falsifikation der vorliegenden Studie freilich wäre genau das, was Dr. Hans Löffler - einer Zentralfigur der Würzburger Zeitgeschichte - zweifellos zustünde. Aus den nun erstmals erschlossenen Quellenbeständen wurde diagnostiziert, dass Löffler für sein eigenes Leben verlässliche Konstanten hatte und gerade dadurch selbst zu einer verlässlichen Konstanten für die Stadtgemeinde Würzburg wurde. In diesem Sinne will die vorliegende Untersuchung die so dringend angezeigte Löffler-Forschung weder abschließen noch determinieren, sondern den notwendigen Anfang einer vertieften kommunalgeschichtlichen Auseinandersetzung mit einem bedeutenden deutschen Oberbürgermeister bilden - auf dass sich besser noch erhellt wie es denn eigentlich gewesen.
Der vorliegende Bericht stellt die Ergebnisse der Befragung zur Situation des bayerischen Jugendfußballs, die seit 2011 im zweijährigen Turnus durchgeführt wird, dar. Insgesamt haben an der Befragung 33,4 Prozent aller bayerischen Fußballvereine mit Jugendabteilungen teilgenommen. Die Ergebnisse sind bayernweit und hinsichtlich der Bezirke repräsentativ für die Mitgliedsvereine des Bayerischen Fußball-Verbands. Der inhaltliche Schwerpunkt der BFV-Studie 2013 ist die Verortung des bayerischen Jugendfußballs auf dem Kontinuum von sozialer Teilhabe und Förderung des Leistungssports sowie der Identifikation verschiedener Vereinstypen innerhalb dieses Kontinuums.
Die vorliegende Arbeit, die im Rahmen des SFB 630 „Erkennung, Gewinnung und funktiona-le Analyse von Wirkstoffen gegen Infektionskrankheiten“ erstellt worden ist, beschäftigt sich mit der Entwicklung und Synthese der bisquartären Bisnaphthalimide und deren antimikro-biellen Eigenschaften, speziell gegen Erreger tropischer Infektionskrankheiten, wie Plasmo-dien und Trypanosomen aber auch Bakterien wie Staphylococcus aureus. Erste Testungen einer kleinen Bibliothek verschiedener mono- und bisquartärer Phthal- und Naphthalimide im SFB 630 offenbarten deren antimikrobielles Potenzial. Daher war es das Hauptziel dieser Arbeit, durch systematische Variation der verschiedenen Strukturbestandteile diese Bibliothek zu erweitern. Dazu mussten zuerst die entsprechenden Naphthalin-1,8-dicarbonsäure-Anhydride hergestellt werden. Im nächsten Schritt wurden diese mit einem N,N-Dimethylaminopropylamin-Derivat zum Imid kondensiert und abschließend mit einem Alkyl-Linker zur bisquartären Verbindung alkyliert. So konnte die Bibliothek um 25 Verbin-dungen erweitert werden. Dabei umfassten die Variationen die Alkylkettenlänge zwischen den quartären Stickstoffen mit 3–14 Methylen-Einheiten, das aromatische Substitutionsmuster mit Amino- bzw. Nitrogruppen und symmetrische, wie asymmetrische Bisnaphthalimide. Durch anschließende antimikrobielle Testung und qualitativen Vergleich der ermittelten IC50-Werte konnten verschiedene strukturelle Merkmale der Bisnaphthalimide identifiziert werden, die einen positiven Einfluss auf die Aktivität gegen den untersuchten Mikroorganismus haben.
Zusammenfassung Ziel: Eine lagerungsbedingte einseitige Abflachung des Hinterkopfes aufgrund externer Kräfte (Lagerungsplagiocephalus, LP) ist die häufigste Kopfdeformität im Säuglingsalter. Die im Rahmen der ersten Kindervorsorgeuntersuchung (U1) erhobenen Daten wurden bezüglich der bekannten Risikofaktoren für die Entstehung eines LP ausgewertet. Im Rahmen der vorliegenden klinischen Pilotstudie wurde der Lagerungsplagiozephalus mitels der non-invasiven dreidimensionalen Sterophotogrammetrie untersucht und erstmals eine Normdatenbank von Säuglingen ohne Kopfdeformitäten erstellt. Die Therapie und Effektivität mittels modellierender individuell angefertigter Kopforthese, wurde evaluiert. Patienten und Methode: Untersucht wurden 20 Säuglinge mit einem Lagerungsplagiozephalus und schwerer Asymmetrie (Alter 6,0+0,97 Monate) und 20 Säuglinge ohne Kopfdeformität (Alter 6,4+0,3 Monate). Es erfolgte eine 3D-Weichteilanalyse des gesamten Kopfes. Zur Evaluation der Kopforthesentherapie wurden prä- und posttherapeutisch angefertigte sterophotogrammtriesche Aufnahmen dreidimensional ausgewertet. Ergebnisse: Anhand der im Rahmen der Erstuntersuchung erhobenen Daten zeigten sich bezüglich der Geburtslage und Art der Entbindung nur geringe Unterschiede. In der Patientengruppe kamen eine Beckenendlage und die Geburt durch Kaiserschnitt gehäuft vor. Die Anzahl der Spontangeburten zeigte sich in der Kontrollgruppe mit 70% größer als in der Patientengruppe mit 60%. Köpergröße, Körpergewicht und Kopfumfanges fielen in der Patientengruppe kleiner aus. Im Rahmen der vorliegenden Untersuchung wurden erstmalig 3D-Oberflächendaten von gesunden Säuglingsköpfen erhoben. Hierzu wurden die 360° Aufnahmen mittels lichtoptischen Verfahrens durchgeführt. Die reliable Auswertung der Säuglingsköpfe erfolgte in einem virtuellen Raum und diente zur Erstellung einer Normdatenbank. Bestehende Asymmetrien lassen sich mit diesem Verfahren quantifizieren. Die non-invasive 3D-Bildgebung kann somit zusätzlich zur klinischen Untersuchung und Sonographie als reliables Instrument in der Diagnostik und Verlaufsbeurteilung eingesetzt werden. Mittels der durchgeführten Aufnahmen konnten folgenden Parameter bei Säuglingen mit LP charakterisiert werden: - Die maximale Kopflänge zeigt sich bei vergrößertem Breiten/Längen-Index reduziert. Kompensatorisch erfolgt eine Vergrößerung der Vertexhöhe. - Die Ohrachse zeigt sich verschoben. - Die betroffenen Säuglinge weisen eine vergrößerte 30° Diagonalendifferenz auf und zeigen asymmetrische anteriore und posteriore Volumina des Neurokraniums. Schlussfolgerung: Die im Rahmen der Erstuntersuchung (U1) ermittelten Daten zeigten nur geringe Unterschiede zwischen der Patienten- und der Kontrollgruppe bezüglich Risikofaktoren für die Entstehung eines LP. Die Anzahl an Kaiserschnitten war innerhalb der Patientengruppe erhöht. Die im Rahmen der Pilotstudie untersuchte Anzahl Kinder ist allerdings zu gering um eine definitive Aussage treffen zu können. Die Therapie mittels individuell gefertigter Kopforthese hat eine Harmonisierung des Breiten/Längen-Index zur Folge. Eine posttherapeutische Verbesserung kann bezüglich der neurokraniellen Asymmetrie mit einer Reduktion der 30° Diagonalendifferenz und einer Angleichung der posterioren Volumina beobachtet werden. Die frühzeitige Korrektur, ab dem sechsten Lebensmonat, kann eine lagerungsbedingten Kopfdeformität frühzeitig korrigieren. Bezüglich der Bewertung des Langzeiterfolges der Helmtherapie sind noch weitere Studien notwendig. Insbesondere der longitundinale Aufbau einer Normdatenbank ist erforderlich, um physiologische Referenzdaten zu schaffen.
Die paläotropischen Pflanzenfamilien der Ancistrocladaceae und Dioncophyllaceae sind die bisher einzig bekannten Produzenten von Naphthylisochinolin-Alkaloiden. Diese spezielle Klasse acetogeniner Sekundärmetabolite weist durch die verschiedenen Kupplungspositionen der beiden namensgebenden Molekülbausteine eine breite strukturelle Diversität auf und zeichnet sich durch vielfältige pharmakologische Wirksamkeiten, z.B. antiplasmodiale, antileishmaniale oder antitrypanosomale Aktivitäten, aus. Zur Synthese dieser Naturstoffe wurde im Arbeitskreis Bringmann eigens eine Methodik entwickelt, das Lacton -Konzept. Diese Methode erlaubt durch eine Vorfixierung der beiden Molekülhälften durch eine Esterbrücke, anschließender intramolekularer Kupplungsreaktion und der stereoselektiven Öffnung des erhaltenen Lactons den atropselektiven Aufbau der Naphthylisochinoline. Als Ziele dieser Arbeit ergaben sich somit die Synthese pharmakologisch und strukturell interessanter Naphthylisochinolin-Alkaloide mittels des Lacton-Konzepts sowie die Isolierung und Strukturaufklärung weiterer Sekundärmetabolite aus Triphyophyllum peltatum (Dioncophyllaceae), welche anschließend auf ihre Bioaktivität hin untersucht werden sollten, um potenziell neue Leitstrukturen für neue Wirkstoffe zu finden.
In dieser Arbeit untersuchen wir die Produktion von Neutrinos in astrophysikalischen Quellen. Bei der Beschreibung der Wechselwirkung betrachten wir resonante, direkte und Multipion-Produktion. Zusätzlich berücksichtigen wir die Produktion von Neutronen und positiv geladenen Kaonen. Wir beachten explizit die Energieverluste der Sekundärteilchen - Pionen, Myonen und Kaonen - auf Grund von Synchrotronstrahlung derselben und adiabatischer Expansion. In Bezug auf den Neutrinofluss berücksichtigen wir Flavor-Mischungen der Neutrinos auf dem Weg zum Beobachter. Zunächst führen wir eine Analyse basierend auf einem generischen Quellmodell durch, in der wir den Einfluss von Magnetfeld und Größe der Quelle auf die Neutrinospektren und das Verhältnis der verschiedenen Neutrino-Flavor untersuchen. Es stellt sich heraus, dass man im Rahmen dieses generischen Modells verschiedene Regionen im Parameterraum anhand des Flavor-Verhältnisses, das für hohe Magnetfelder von dem zumeist angenommenen Verhältnis (nu_e:nu_mu:nu_tau)=(1:2:0) abweicht, klassifizieren kann. In einer zweiten Analyse bestimmen wir die erwarteten Neutrinospektren von Gammablitzen im Rahmen des Feuerball-Modells aus beobachteten Photonspektren. Es zeigt sich, dass auf Grund grober Abschätzungen in der Literatur, der Neutrinofluss zumeist um etwa eine Größenordnung überschätzt wird. Deshalb berechnen wir den erwarteten Neutrinofluss der Gammablitze neu, die während der 40-Leinen-Konfiguration des IceCube-Detektors gemessen wurden, und folgern, dass entgegen der Behauptung der IceCube-Kollaboration, das Feuerball-Modell noch nicht ausgeschlossen ist. Des Weiteren quantifizieren wir systematische und astrophysikalische Unsicherheiten in dem vorhergesagten Neutrinofluss.
In ihrer Evolution mussten Pflanzen Strategien entwickeln um sich sowohl gegen Pathogene aus der Luft als auch solche im Boden zu verteidigen. Diese Resistenzmechanismen der Pflanzen zu verstehen ist von höchster Wichtigkeit für die moderne Gesellschaft. Die Weltbevölkerung wächst schnell, was zu der Notwendigkeit führt, die landwirtschaftlichen Flächen möglichst optimal zu nutzen. Ohne die Weiterentwicklung der landwirtschaftlichen Methoden wird eine ausreichende Versorgung mit Grundnahrungsmitteln nicht möglich sein. Obwohl nicht viele Daten zu diesem Thema vorliegen, ist es sehr wahrscheinlich, dass ein hoher Prozentsatz der jährlichen Ernteverluste auf Pflanzenkrankheiten zurückzuführen ist (Orke et al. 1994, Pinstrup-Andersen; 2001). Der Ernteverlust ist nicht ausschließlich auf den Tod der infizierten Pflanze zurückzuführen, sondern vielmehr auf die sogenannten Resistenzkosten Walters und Heil; 2007). Um sich gegen das Pathogen zu schützen müssen Ressourcen genutzt werden, die sonst für die korrekte Entwicklung der Pflanze, sowie der Samen und Früchte verwendet würden. Die pflanzliche Cuticula, welche die Blattoberfläche bedeckt, ist die erste Verteidigungslinie gegen pathogene Microorganismen, die durch die Luft verbreitet werden. Um diese Barriere zu umgehen nutzen Bakterien und einige Pilze die Stomata als Eingang in den Apoplasten der Blätter. Dies kann durch die Pflanze allerdings verhindert werden, indem diese Poren geschlossen werden. Diese Schließzellantwort wurde zunächst als Teil der Immunantwort auf Bakterien angesehen (Melotto et al. 2006). Nichtsdestotrotz konnte beobachtet werden, dass die Stomata auch während der Infektion des Mehltaupilzes schließen, obwohl dieser nicht durch die Stomata in das Blatt eindringen. Daher haben wir Einzelzellstudien an intakten Gerstenpflanzen vorgenommen um zu klären, wie die Signale erkannt und weitergeleitet werden, die schließlich zum pathogen-induzierten Stomaschluss führen (Koers et al. 2011). Zusammengefasst kann gesagt werden, dass der Stomaschluss ein wichtiger Bestandteil der pflanzlichen Immunantwort ist. Innerhalb dieser Antwort der Stomata auf durch Wind übertragene Pathogene, spielt die Aktivierung der S-Typ Anionenkanäle eine entscheidende Rolle. Es konnte dabei gezeigt werden, dass die Immunantwort die Licht-induzierte Inhibierung dieser Anionenkanäle außer Kraft setzt. S-Typ Anionenkanäle sind aber nicht allein in der Pathogenabwehr von Bedeutung, sondern auch in der Reaktion der Pflanzen auf Trockenstress. Es ist jedoch nicht bekannt, in wie weit sich die beiden Signalwege überschneiden. Zusammen mit den neuen mutierten Gerstenlinien, werden die in dieser Arbeit beschriebenen Techniken zur Messung von Einzelzellen tiefere Einsichten in das Zusammenspiel zwischen Trockenstress und Pathogenabwehr in Pflanzen ermöglichen. Die daraus resultierenden Ergebnisse können zur Optimierung von Getreide für die moderne Landwirtschaft genutzt werden. Dies wird einer der wichtigsten Ansätze sein, um die Menschheit auch in Zukunft mit ausreichend Nahrung versorgen zu können.
An der Universitätsfrauenklinik Würzburg wird das Hörscreening Neugeborener derzeit mit dem von der Firma MAICO Diagnostic GmbH in Berlin entwickelten Gerät, dem Messgerät MB 11 mit BERAphon® durchgeführt. In dieses Gerät wurde ein optimierter akustischer Chirp - Stimulus implementiert. Der Stimuluspegel beträgt 35 dBnHL. Es wurden 77 Neugeborene der Entbindungsstation untersucht. Zu Beginn wurden beide Ohren der Kinder jeweils mit der vom Gerät verwendeten routinemäßigen Reizrate von 90/s untersucht. Zusätzlich wurden Screenings mit 5 weiteren Reizraten (20/s, 40/s, 60/s, 80/s und 100/s) jeweils monoaural durchgeführt. Da man nach der Literatur von unterschiedlichen mittleren Nachweiszeiten abhängig von der Vigilanz der Kinder ausging, wurde zusätzlich der Wachheitszustand jedes Kindes dokumentiert. Es zeigte sich, dass mit dem implementierten Chirp-Stimulus bei einer Lautstärke von 35 dBnHL unabhängig von der untersuchten Reizrate zuverlässig Screenings durchführbar sind. Die Auswertung der Nachweiszeiten unabhängig von der Vigilanz der Kinder lässt bereits darauf schließen, dass kürzere Nachweiszeiten bei niedrigeren Reizraten als der Standardreizrate von 90/s erzielbar sind. Hier ergaben sich die kürzesten Nachweiszeiten bei den Reizraten 60/s und 80/s. Ein entsprechendes Ergebnis zeigte sich bei der Aufteilung der Nachweiszeiten in zwei Gruppen: schlafende und wache Neugeborene. Bei den schlafenden Babies wurden signifikant kürzere Nachweiszeiten bei einer Reizrate von 60/s und 80/s im Vergleich zur Standardreizrate mit 90/s gemessen. Bei wachen Neugeborenen war das Ergebnis noch stärker ausgeprägt. Hier unterschieden sich die mittleren Nachweiszeiten der einzelnen Reizraten stärker untereinander, was auf ein Vorhandensein mittellatenter Komponenten bereits bei Neugeborenen schließen lässt. Verglichen mit der Reizrate von 90/s ergab jedoch nur die Reizrate von 60/s signifikant kürzere Nachweiszeiten. 57 In Zusammenschau der Ergebnisse lässt sich also schlussfolgern, dass eine Reizrate von 60/s sowohl bei schlafenden als auch bei wachen Neugeborenen signifikant kürzere Nachweiszeiten bietet als die bisher verwendete Reizrate von 90/s. Für die Zukunft ist eine Fortsetzung der Untersuchungen geplant, inwieweit die Vigilanz des Kindes einen Einfluss auf die Antworten beim Hörscreening hat. Vor allem für die Gruppe der „wachen“ Neugeborenen ist eine Erhöhung der Anzahl untersuchter Kinder notwendig.
Das Ziel dieser Arbeit bestand in der Synthese und Charakterisierung neuer Metallocenophane mit Sila-, Bora- und Stannabrücken. Sowohl für die Synthese über 1,1'-dimetallierte Metallocene als auch für die Synthese über die sogenannte flytrap-Methode sind dihalogenierte Brücken erforderlich. Für die Synthese neuer Trisilametallocenophane wurde deshalb eine verbesserte Synthese für 1,3-Diphenyl- und 1,3-Dichlorotrisilane erarbeitet. Die für die flytrap-Methode benötigten Liganden konnten aus 1,3-Dichloro-2,2-diisopropyltrisilan durch die Umsetzung mit den lithiierten Ringsystemen Lithiumindenid, Lithiumfluorenid und Lithiumoctafluorenid erhalten werden. Die dadurch dargestellten, zweifach arylsubstituierten Trisilane konnten anschließend erfolgreich mit BuLi zweifach lithiiert werden Das für die Darstellung von Triborametallocenophanen benötigte 1,3-Dibromo-1,2,3-tris(dimethylamino)triboran(5) sowie dessen Vorstufe 1,1,2,3,3-Pentakis-(dimethylamino)triboran(5) wurde über die bekannte Syntheseroute von Nöth et al. dargestellt. Durch eine Verbesserung der Reaktionsbedingungen konnten die Ausbeuten von 23% auf 36% bzw. auf 71% erhöht werden. Außerdem wurde eine Einkristallröntgenstrukturanalyse erhalten. Metallocenophane der 8. Gruppe werden meist durch Reaktion der 1,1'-dilithiierten Metallocenene mit dihalogenierten Brücken dargestellt. Um die Synthese von Rutheno- und Osmocenophanen zu ermöglichen, wurden Ruthenocen und Osmocen mit BuLi und pmdta als Hilfsbase lithiiert und erstmals als Feststoffe isoliert. Diese wurden mittels NMR-Spektroskopie und Einkristallröntgenstrukturanalyse untersucht, wodurch gezeigt wurde, dass sie wie 1,1'-Dilithioferrocen und 1,1'-Dilithometalloarenophane im Feststoff als dimere Verbindungen vorliegen. Aus thf konnte zusätzlich die Einkristallröntgenstrukturanalyse des thf-stabilisierten 1,1'-Dilithioruthenocen-Dimers erhalten werden Mit den in dieser Arbeit synthetisierten 1,3-Dichlorotrisilanen und 1,1'-Dilithioferrocen wurden die entsprechenden Trisilaferrocenophane synthetisiert und mittels NMR-Spektroskopie untersucht. Von der iPropyl-substituierten Verbindung konnte zusätzlich die erste Einkristallröntgenstrukturanalyse eines Trisilaferrocenophans erhalten werden Durch eine Umsetzung von 1,1‘-Dilithioruthenocen und –osmocen mit dem Diisopropyltrisilan konnten die ersten Trisilametallocenophane von Ruthenium und Osmium dargestellt werden. Durch die Umsetzung von 1,1‘-Dilithioosmocen mit Tetramethyldichlorodisilan gelang die Darstellung des ersten Osmocenophans mit einer zweiatomigen Brücke. Von Tetramethyldisilaosmocenophan konnte eine Einkristallröntgenstrukturanalyse erhalten werden. Die Syntheseroute von Tetra-tert-butyldistannaferrocenophan von Braunschweig et al. konnte erfolgreich auf die Synthese der Ruthenium- und Osmiumanaloga übertragen werden. Die zinnverbrückten Metallocenophane konnten NMR-spektroskopisch und durch eine Einkristallröntgenstrukturanalyse charakterisiert werden. Die von Wrackmeyer et al. und Braunschweig et al. bekannte Insertion von Chalkogenen in die Zinn-Zinn-Bindung konnte ebenfalls für die Verbindungen gezeigt werden. Dabei konnte eine deutliche Verkürzung der Reaktionszeit von 10 d auf 1 d durch die Zugabe von einem Äquivalent pmdta zur Reaktionsmischung erreicht werden. Mit der Ligandenvorstufe 1,2-Bis(lithio-cyclopentadienid)-1,1,2,2-tetra-tert-butyldistannan konnten über die flytrap-Methode die Distannametallocenophane von Cobalt und Nickel synthetisiert werden. Zudem konnten beide Verbindungen mit Ferroceniumhexafluorophosphat einfach oxidiert werden. Die beiden 19-Valenzelektronenverbindungen wurden mittels ESR-Spektroskopie untersucht. Von beiden Cobaltocenophanen sowie vom Nickelocenophan konnte eine Einkristallröntgenstrukturanalyse erhalten werden.
Es wurden verschiedene Borirene synthetisiert und auf ihre Reaktivität gegenüber Lewis-Basen und Übergangsmetallkomplexen untersucht. Hierbei wurden verschiedene Boriren-Basen-Addukte dargestellt. Zudem konnte der erste Platin-BC-sigma-Komplex dargestellt werden. Des Weiteren wurde die Metall-vermittelte Darstellung von 1,4-Azaborininen vorgestellt und der Mechanismus der Reaktion aufgeklärt. Im letzten Teil der Arbeit wurden Bor-haltige Komplexe des Rhodiums synthetisiert und ihre Reaktivität untersucht.