Refine
Is part of the Bibliography
- yes (6103) (remove)
Year of publication
Document Type
- Doctoral Thesis (6103) (remove)
Language
- German (6103) (remove)
Keywords
- Deutschland (72)
- Signaltransduktion (65)
- Genexpression (64)
- Herzinsuffizienz (62)
- Maus (60)
- Apoptosis (50)
- Apoptose (48)
- Lebensqualität (48)
- NMR-Tomographie (48)
- T-Lymphozyt (46)
Institute
- Theodor-Boveri-Institut für Biowissenschaften (315)
- Medizinische Klinik und Poliklinik I (290)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (252)
- Graduate School of Life Sciences (226)
- Lehrstuhl für Orthopädie (205)
- Physikalisches Institut (203)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (200)
- Medizinische Klinik und Poliklinik II (196)
- Institut für Pharmazie und Lebensmittelchemie (190)
- Institut für Anorganische Chemie (189)
Schriftenreihe
Sonstige beteiligte Institutionen
- Fraunhofer Institut für Silicatforschung ISC (3)
- Fraunhofer-Institut für Silicatforschung (3)
- Fraunhofer-Institut für Silicatforschung ISC (3)
- Klinikum Fulda (3)
- König-Ludwig-Haus Würzburg (3)
- Universitätsklinikum Würzburg (3)
- CHC Würzburg (Comprehensive Hearing Center) (2)
- Comprehensive Cancer Center Mainfranken (2)
- Deutsches Zentrum für Herzinsuffizienz (2)
- Fraunhofer-Institut für Silicatforschung ISC, Würzburg (2)
ResearcherID
- D-3057-2014 (1)
- N-7500-2014 (1)
- N-8985-2015 (1)
Im Rahmen dieser Arbeit wurden Effekte der Paarbildung durch Wechselwirkung von hochenergetischer Gammastrahlung mit dem metagalaktischen FIR-UV Strahlungsfeld (MRF) untersucht. Einerseits hat die Paarbildung Folgen f"ur die beobachteten Spektren aktiver Galaxienkerne, andererseits hat sie auch einen gro"sen Einflu"s auf den extragalaktischen Gammastrahlungshintergrund. Es wurde ein verbesserte Version f"ur das Modell des FIR-UV Strahlungsfelds vorgestellt, mit dessen Hilfe aus beobachteten Daten intrinsische Blazarspektren ermittelt wurden. Im weiteren wurde ein auf EGRET-Blazaren basierendes Modell f"ur den Gammastrahlungshintergrund berechnet, in dem besonderer Wert auf die korrekte Beschreibung der Absorption prim"arer und der daraus resultierenden sekund"aren Gammastrahlung gelegt wurde. Schlie"slich wurde gezeigt, da"s der Beitrag von BL Lac Objekten zum Gammahintergrund nicht nur der fehlende Flu"s, sondern auch die spektrale Form der aus EGRET Beobachtungen gewonnenen Daten erkl"art werden kann, ohne den gegenw"artigen TeV-Daten zu widersprechen.
In dieser Dissertation wurden zwei Aspekte der Wechselwirkung von Laserpulsen mit Molekülen betrachtet: Erstens wurden numerische Algorithmen, die auf der zeitabhängigen Störungstheorie basieren, zur Berechnung von quantenmechanischen Wellenfunktionen analysiert. Zweitens wurden Effekte der absoluten Phase (Carrier envelope phase = CEP) von Laserpulsen bei der Laseranregung molekularer Systeme analysiert. In den Analysen zum ersten Aspekt wurden zwei verschiedene Algorithmen - in dieser Arbeit als simple und improved algorithm bezeichnet - verwendet, und die Normabweichung von mit diesen Algorithmen berechneten Wellenfunktionen untersucht. Es konnte gezeigt werden, dass diese Normabweichung für beide Algorithmen in zwei unterschiedliche Beiträge zerlegt werden kann. Der erste Normabweichungsbeitrag tritt aufgrund der numerischen Diskretisierung der Zeit auf und verschwindet, wenn der Zeitschritt, der die Dauer der Intervalle für diese Diskretisierung angibt, gegen Null geht. Man kann den ersten Normabweichungsbeitrag mit exzellenter Genauigkeit berechnen und seine Eigenschaften, die sich für die beiden Algorithmen erheblich unterschieden, eingehend analysieren. Der zweite Normabweichungsbeitrag tritt dadurch auf, dass die zeitabhängige Störungstheorie nicht normerhaltend ist, und geht daher gegen Null, wenn die Störungsordnung gegen unendlich geht. Dieser zweite Beitrag ist außerdem in guter Näherung unabhängig vom Zeitschritt und für beide Algorithmen näherungsweise gleich. Des Weiteren kann man das Verhalten des zweiten Normabweichungsbeitrags im Gegensatz zum ersten Beitrag nur qualitativ beschreiben. Für die Analyse zum zweiten Themengebiet dieser Arbeit, den CEP-Effekten, wurde betrachtet, ob CEP-Effekte auch für Laserpulse beliebiger Länge auftreten können. Über eine analytische Betrachtung erkennt man, dass dies für ein Zweiniveausystem nur dann der Fall ist, wenn beide Zustände vor Beginn der Wechselwirkung des Systems mit dem Laserpuls besetzt sind. Man kann aus diesem Ergebnis folgern, dass für einen Laserpuls, der zwei elektronische Zustände eines Moleküls über Einphotonenübergänge koppelt, in der Regel kein CEP-Effekt für beliebige Längen dieses Pulses auftritt. Der Grund dafür ist, dass vor der Wechselwirkung eines molekularen Systems mit einem Laserpuls für dieses üblicherweise nur der elektronische Grundzustand besetzt ist. In dieser Arbeit wird gezeigt, dass dieses Problem durch ein spezielles Zweipulsschema für die Anregung eines molekularen Systems gelöst werden kann. Für dieses Pulsschema wird ein erster Puls verwendet, der zeitlich so kurz ist, dass Wellenpakete in mehreren elektronischen Zuständen angeregt werden. Der nachfolgende zweite Laserpuls ist spektral schmal, und seine zeitliche Länge kann beliebig groß gewählt werden. Man erhält für dieses Pulsschema Observablen, die von der CEP des zweiten Pulses, aber nicht von der CEP des ersten Pulses abhängen; somit ist ein CEP-Effekt nachweisbar. Derartige Observablen sind geometrische Asymmetrien für Zerfallsprodukte von Photodissoziationsreaktionen. Insbesondere unterscheidet sich das hier vorgestellte Pulsschema von anderen Zweipulsschemata, für welche Observablen von der Differenz der CEPs beider Pulse abhängen, aber nicht von der CEP einer der beiden Pulse allein.
Einerseits besteht die einfachste Möglichkeit zum Ladungs- und Informationstransport zwischen zwei Punkten in deren direkter Verbindung durch eindimensionale Kanäle. Andererseits besitzen topologische Materialien exotische und äußerst vorteilhafte Eigenschaften, weshalb es nahe liegt, dass schon bald neue Anwendungen aus ihnen realisiert werden. Wenn diese beiden Entwicklungen zusammenkommen, dann ist ein grundlegendes Verständnis von Quanteninterferenz oder Hybridisierungseffekten in eindimensionalen, topologischen Kanälen von fundamentaler Wichtigkeit. Deshalb werden in der vorliegenden Arbeit Wechselwirkungen von eindimensionalen, topologisch geschützten Kantenzuständen, die an ungeradzahligen Stufenkanten auf der (001)–Oberfläche von Pb1−xSnxSe auftreten, untersucht. Aufgrund der lateralen Lokalisierung auf wenige Nanometer um eine Stufenkante herum und der Notwendigkeit zwischen gerad- und ungeradzahligen Stufenkantenhöhen zu unterscheiden, bieten sich die Rastertunnelmikroskopie und -spektroskopie als Methoden an. Die neu entdeckten Kopplungs- bzw. Wechselwirkungseffekte zwischen benachbarten Kantenzuständen treten auf, sobald der Stufe zu Stufe Abstand einen kritischen Wert von dkri ≈ 25nm unterschreitet. Dieses Kriterium kann durch verschiedene räumliche Anordnungen von Stufenkanten erfüllt werden. Infolgedessen werden sich kreuzende, parallel verlaufende und zusammenlaufende Stufenkanten genauer untersucht. Bei letzteren verändert sich entlang der Struktur kontinuierlich der Abstand und damit die Kopplungsstärke zwischen den beiden Randkanälen. Infolgedessen wurden drei Koppelungsregime identifiziert. (I) Ausgehend von einer schwachen Wechselwirkung zeigt der für die Kantenzustände charakteristische Peak im Spektrum zunächst eine Verbreiterung und Verminderung der Intensität. (II) Mit weiter zunehmender Wechselwirkung beginnt sich der Zustand in zwei Peaks aufzuspalten, sodass ab dkri ≈ 15nm an beiden Stufenkanten durchgehen eine Doppelpeak zu beobachten ist . Mit weiter abnehmendem Abstand erreicht die Aufspaltung Werte von einigen 10 meV, während sich die Intensität weiter reduziert. (III) Sobald zwei Stufenkanten weniger als etwa 5nm voneinander getrennt sind, konvergieren aufgrund der schwindenden Intensität und des sinkenden energetischen Abstands der beiden Peaks zu den van Hove Singularitäten die Spektren an den Stufenkanten gegen das Spektrum über einer Terrasse. i Die Aufspaltung verläuft in den Bereichen I und II asymmetrisch, d. h. ein Peak verbleibt ungefähr bei der Ausgangsenergie, während der andere mit zunehmender Kopplung immer weiter weg schiebt. Bezüglich der Asymmetrie kann kein Unterschied festgestellt werden, ob die zusammenlaufenden Stufenkanten eine Insel oder Fehlstelleninsel bilden oder ob die Stufenkanten sogar gänzlich parallel verlaufen. Es zeigt sich keine Präferenz, ob zunächst der niederenergetische oder der hochenergetische Peak schiebt. Erst im Regime starker Kopplung (III) kann beobachtet werden, dass beide Peaks die Ausgangsenergie deutlich verlassen. Im Gegensatz dazu kann bei sich kreuzenden Stufen ein erheblicher Einfluss der Geometrie, in Form des eingeschlossenen Winkels, auf das Spektrum beobachtet werden. Unabhängig vom Winkel existiert am Kreuzungspunkt selbst kein Kantenzustand mehr. Die Zustände an den vier Stufen beginnen, abhängig vom Winkel, etwa 10-15nm vor dem Kreuzungspunkt abzuklingen. Überraschenderweise zeigt sich dabei, dass im Fall rechtwinkliger Stufen gar keine Aufspaltung zu beobachten ist, während bei allen anderen Winkeln ein Doppelpeak festgestellt werden kann. Diese Entdeckung deutet auf Orthogonalität bezüglich einer Quantenzahl bei den beteiligten Kantenzustände hin. Neben einer nur theoretisch vorhergesagten Spinpolarisation kann dieser Effekt auch von dem orbitalem Charakter der beteiligten Dirac–Kegel verursacht sein. Da der topologische Schutz in Pb1−xSnxSe durch Kristallsymmetrien garantiert ist, wird als letzter intrinsischer Effekt der Einfluss von eindimensionalen Defekten auf die Kantenzustände untersucht. Berücksichtigt werden dabei ein nicht näher klassifizierbarer, oberflächennaher Defekt und Schraubversetzungen. In beiden Fällen kann ebenfalls eine Aufspaltung des Kantenzustands in einen Doppelpeak gezeigt werden. Im zweiten Teil dieser Arbeit werden die Grundlagen für eine Wiederverwendung von (Pb,Sn)Se–Oberflächen bei zukünftige Experimenten mit (magnetischen) Adatomen geschaffen. Durch Kombination von Inoenzerstäubung und Tempern wird dabei nicht nur eine gereinigte Oberfläche erzeugt, sondern es kann auch das Ferminiveau gezielt erhöht oder gesenkt werden. Dieser Effekt beruht auf eine Modifikation der Sn– Konzentration und der von ihr kontrollierten Anzahl an Defektelektronen. Als letztes sind erste Messungen an Cu- und Fe–dotierte Proben gezeigt. Durch die Adatome tritt eine n–Dotierung auf, welche den Dirac–Punkt des Systems in Richtung des Ferminiveaus verschiebt. Sobald er dieses erreicht hat kommt es zu Wechselwirkungsphänomenen an freistehenden Stufenkanten. Dies führt zu einer Doppelpeakstruktur mit einer feinen Aufspaltung von wenigen meV. Das Phänomen ist auf ein schmales Energiefenster beschränkt, bei dem die Lage des Dirac–Punkts nur etwa 5 meV (in beide Richtungen) von der des Ferminiveaus abweichen darf.
Ein Teil dieser Arbeit befasste sich mit der Fragestellung, ob beim Übergang von Proliferation zu Teilungsruhe und Differenzierung irreversible Veränderungen in der Zusammensetzung des präreplikativen Komplexes auftreten. Ein dafür geeignetes System ist die murine C2C12-Zell-Linie, die durch Kultivierung in Hungermedium zu Myotuben differenziert werden können. FACS-Analyse und BrdU-Einbau ergaben, dass in den Muskelzellen keine signifikante DNA-Synthese mehr stattfindet. Die Fluktuation von Replikationsproteinen wurde im Verlauf der terminalen Differenzierung untersucht. Gleiche Mengen an Kern- und Cytoplasma-Extrakten von proliferierenden, konfluenten und sich differenzierenden Zellen wurden durch SDS-PAGE aufgetrennt und im Immunblot mit Antikörpern gegen Replikationsproteine untersucht ORC1, CDC6, MCM6 und Geminin konnten nach 132 h nicht mehr detektiert werden, während ORC2, ORC3, MCM3, CDT1 und CDC45 zwar noch vorhanden waren, jedoch in geringerer Menge als in proliferierenden Zellen. Weiterhin wurde die Menge an Replikationsproteinen in durch Serummangel transient aus dem Zellzyklus ausgetretenen G0-Phase-Zellen und Zellen, die durch Serum reaktiviert wurden, untersucht. Die Replikationsproteine waren in quieszenten C2C12- und 3T3-Zellen gleichermaßen wie in den terminal differenzierten Zellen in verringerter Menge vorhanden. Weiterhin konnte gezeigt werden, dass eine Restimulierung von quieszenten, nicht aber terminal differenzierten Zellen, die erneute Expression von Replikationsproteinen zur Folge hat. Im Rahmen dieser Arbeit wurden Chromatin-Immunpräzipitations-Experimente (ChIP) mit proliferierenden und terminal differenzierten C2C12-Zellen durchgeführt. Eine preRC-Assemblierungsstelle befindet sich im OBR-Bereich der murinen rRNA-Gene von -2519 bis -2152 (Fragment B). In proliferierenden C2C12-Zellen konnte die Bindung von ORC1-5, CDC6, CDT1, MCM3, MCM6, CDC45 und HP1 an Fragment B nachgewiesen werden. Während der terminalen Differenzierung werden ORC1, CDC6, CDT1 und CDC45 von der preRC-Bindungsstelle entfernt, ORC2-5, MCM3, MCM6 und HP1 bleiben an Fragment B gebunden. Die Bindung von preRC-Proteinen an Fragment B sollte durch Electrophoretic Mobility Shift Assays (EMSAs) in vitro detailliert untersucht werden. Dazu mussten zunächst preRC-Proteine nativ aus dem Kernextrakt proliferierender FM3A-Zellen durch Ionenaustausch- und Gelfiltrations-Chromatographie angereichert werden. Proteine in den Fraktionen B4 bis B12 bilden einen DNA-Protein-Komplex mit Fragment B. Die ATP-Abhängigkeit der Bildung des DNA-Protein-Komplexes wurde nachgewiesen. Die Ausbildung des DNA-Protein-Komplexes erfolgt sequenzspezifisch an Fragment B. Durch Zugabe spezifischer Antikörper gegen ORC3 und CDT1 zur Bindungsreaktion konnte die Ausbildung des DNA-Protein-Komplexes reduziert werden. Es konnte gezeigt werden, dass die Bildung des DNA-Protein-Komplexes unabhängig von ATP-Hydrolyse erfolgt und dass Diadenosin-Tetraphosphat (Ap4A) die Bindung von preRC-Proteinen an die DNA nicht signifikant stimuliert. Zur Eingrenzung der preRC-Bindungsstelle wurden sowohl am 5´- als auch am 3´-Ende partiell deletierte B-Fragmente eingesetzt. Mit den um 100 bp verkürzten Fragmenten kann der DNA-Protein-Komplex weiterhin gebildet werden. Deletionen von 200 bp entweder vom 5´- oder 3´-Ende verhindern hingegen die Ausbildung des DNA-Protein-Komplexes. Auf einem 119 bp langen Fragment (-2365 bis -2247), das zentral in Fragment B gelegen ist, kann sich der DNA-Protein-Komplex in einer ATP-stimulierten Weise wiederum ausbilden. Die Analyse dieses Bereiches zeigte, dass sich darin zwei auffällige 9 bp-Sequenzen (CTCGGGAGA) befinden, die im Abstand von 63 bp wiederholt werden (-2343 bis -2335; -2280 bis -2272) und die durch die 200 bp-Deletionen ganz oder teilweise eliminiert wurden. Durch ortsgerichtete Mutagenese mittels PCR wurden innerhalb dieser 9 bp-Wiederholungen die Basen C zu A, T zu G und umgekehrt ausgetauscht. In vier sukzessiven Klonierungen wurden je 4 bp ersetzt (S1 bis S4), wobei die erhaltenen Konstrukte als Ausgangs-DNA für die nachfolgende Klonierung dienten. Die Substitutionen S1, S2 und S3 beeinträchtigten die Ausbildung des DNA-Protein-Komplexes im Wesentlichen nicht. Wurden jedoch 8 bp in beiden 9 bp-Wiederholungen ersetzt (S4), war die Ausbildung des DNA-Protein-Komplexes nahezu vollständig inhibiert. S4 hat außerdem eine leichte reduzierte elektrophoretische Mobilität der proteinfreien DNA-Fragmente zur Folge. Vermutlich stellen die 9 bp-Sequenzen jedoch keine Konsensus-Sequenz für die Bindung der preRC-Proteine per se dar, sondern haben vielmehr Effekte auf die Ausbildung spezifischer Sekundär-Strukturen, die wiederum das Binden der preRC-Proteine an diese Region im OBR der murinen rRNA-Gene erlauben könnten.
Über die besondere Bedeutung von Analogiebildungsprozessen beim Lernen im Allgemeinen und beim Lernen von Mathematik im Speziellen besteht ein breiter wissenschaftlicher Konsens. Es liegt deshalb nahe, von einem lernförderlichen Mathematikunterricht zu verlangen, dass er im Bewusstsein dieser Bedeutung entwickelt ist – dass er also einerseits Analogien aufzeigt und sich diese beim Lehren von Mathematik zunutze macht, dass er andererseits aber auch dem Lernenden Gelegenheiten bietet, Analogien zu erkennen und zu entwickeln. Kurz: Die Fähigkeit zum Bilden von Analogien soll durch den Unterricht gezielt gefördert werden.
Um diesem Anspruch gerecht werden zu können, müssen ausreichende Kenntnisse darüber vorliegen, wie Analogiebildungsprozesse beim Lernen von Mathematik und beim Lösen mathematischer Aufgaben ablaufen, wodurch sich erfolgreiche Analogiebildungsprozesse auszeichnen und an welchen Stellen möglicherweise Schwierigkeiten bestehen.
Der Autor zeigt auf, wie Prozesse der Analogiebildung beim Lösen mathematischer Aufgaben initiiert, beobachtet, beschrieben und interpretiert werden können, um auf dieser Grundlage Ansatzpunkte für geeignete Fördermaßnahmen zu identifizieren, bestehende Ideen zur Förderung der Analogiebildungsfähigkeit zu beurteilen und neue Ideen zu entwickeln. Es werden dabei Wege der Analogiebildung nachgezeichnet und untersucht, die auf der Verschränkung zweier Dimensionen der Analogiebildung im Rahmen des zugrundeliegenden theoretischen Modells beruhen. So können verschiedene Vorgehensweisen ebenso kontrastiert werden, wie kritische Punkte im Verlauf eines Analogiebildungsprozesses. Es ergeben sich daraus Unterrichtsvorschläge, die auf den Ideen zum beispielbasierten Lernen aufbauen.
Wegener'sche Granulomatose
(2002)
Die Wegener'sche Granulomatose (WG) ist eine Autoimmunerkrankung, die sich typischerweise als chronische Entzündung des oberen Respirationstraktes, Vaskulitis und Glomerulonephritis manifestiert. WG gehört zur Gruppe der sog. “pauci-immunen” Vaskulitiden, die mit Anti-Neutrophilen-Antikörpern (ANCA, anti neutrophil cytoplasmic antibody) assoziiert sind. Mit Hilfe der indirekten Immunfluoreszenz lassen sich ANCA im Serum der meisten WG-Patienten nachweisen. Die mit WG assoziierten sog. “klassischen” ANCA (c-ANCA) erkennen spezifisch Konformationsepitope der Serinprotease Proteinase 3 (PR3), die in den azurophilen Granula neutrophiler Granulozyten gespeichert wird. Die enge Korrelation PR3-spezifischer Antikörperspiegel mit dem Krankheitsverlauf läßt vermuten, daß sie bei der Pathogenese eine zentrale Rolle spielen könnten. Diese Hypothese wird von Daten aus in vitro Experimenten gestützt: werden Zytokin-stimulierte neutrophile Granulozyten mit Patientenserum oder isolierten c-ANCA inkubiert, erfolgt eine Aktivierung der Neutrophilen, die sich durch Degranulation und Freisetzung von Sauerstoffradikalen äußert. c-ANCA können so indirekt - aber vermutlich auch direkt - zur Endothelschädigung beitragen. Jedoch konnte bisher kein direkter Beweis des pathogenen Potentials von c-ANCA am Tiermodell erbracht werden. Um die Wirkung von c-ANCA an einem Mausmodell zu testen, war zunächst ein murines Maus-PR3- (mPR3) spezifisches Antiserum notwendig. Da humane c-ANCA nicht mit mPR3 kreuzreagieren, wurde für die Immunisierung von PR3/Neutrophilen-Elastase (NE)-defizienten Mäusen ein mPR3-Zymogen rekombinant in E. coli als Einschlußkörpermaterial (IB, inclusion bodies) hergestellt. Nach Renaturierung des IB-Materials in vitro wurde mit der Dipeptidylaminopeptidase Cathepsin C das N-terminale Propeptid abgespalten. Das gewonnene Enzym besaß die für PR3 und NE spezifische katalytische Aktivität, die durch den physiologischen Inhibitor humaner PR3, a1-Antitrypsin, inhibiert werden konnte. Es ist daher anzunehmen, daß das gewonnene rekombinante Material die korrekte Konformation durch Renaturierung in vitro erhalten hatte. Um nun die pathologische Wirkung von Anti-rmPR3-Antikörpern zu testen, wurden PR3/NE-defiziente Mäuse mit dem rekombinanten Zymogen (pro-rmPR3) oder der N-terminal prozessierten Form (rmPR3) immunisiert. Die Spezifität der gewonnenen Antiseren wurde durch Festphasenimmunoassay, Western Blotting und indirekte Immunfluoreszenzfärbung überprüft. Weiterhin konnte fluoreszenzzytometrisch die Bindung von Anti-mPR3-IgG an die Plasmamembran Zytokin-stimulierter Granulozyten nachgewiesen werden. Die hergestellten Antiseren erfüllten somit die für c-ANCA-positive Seren von WG-Patienten typischen Eigenschaften hinsichtlich der Antigenspezifität. Wenn c-ANCA alleine hinreichend für die Induktion der für WG charakteristischen Symptome sind, sollte der Antiserumtransfer auf Wildtyp-Mäuse WG-ähnliche Symptome in den Rezipienten hervorrufen. Nach wiederholter intravenöser Injektion von Serum pro-rmPR3-immunisierter Mäuse ließ sich ein signifikanter Antikörperspiegel bei Verdünnungen von 1:2000 über den gesamten Behandlungszeitraum von 10 Wochen in den Rezipienten nachweisen. Der anschließende histologische Befund von Niere und Lunge ergab jedoch keine pathologischen Veränderungen. Dieses Ergebnis legt nahe, daß c-ANCA alleine keine Krankheitssymptome hervorrufen. In dem gegenwärtigen Modell für c-ANCA-vermittelte Vaskulitis entfaltet sich die pathogene Wirkung von c-ANCA vor allem dann, wenn neutrophile Granulozyten zusätzlich durch proinflammatorische Zytokine wie Tumornekrosefaktor alpha (TNF alpha) stimuliert werden. Erst die Stimulation der Granulozyten ermöglicht die Bindung von c-ANCA an die Plasmamembran und deren anschließende Aktivierung. Deshalb wurde dieses Modell, das vorwiegend aus Ergebnissen von Experimenten in vitro abgeleitet ist, auf ein lokales Entzündungsmodell der Maus übertragen: Durch wiederholte Injektion von TNF alpha in die Haut wurde eine leichte Entzündungsreaktion ausgelöst. Diese Entzündungsreaktion ließ sich schließlich durch intravenöse Verabreichung von pro-rmPR3- oder rmPR3-Antiserum verstärken. Dieser Befund ist ein wichtiger Beweis für die verbreitete Ansicht, daß c-ANCA nicht nur ein Epihänomen der WG darstellen, sondern selbst ein pathogenes Potential besitzen. Im zweiten Teil der vorliegenden Arbeit wurde die Beteiligung der beiden Serinproteasen NE und PR3 an der Entstehung inflammatorischer Prozesse untersucht. Im Hinblick auf die bei der Pathogenese der WG beteiligten Mechanismen könnten PR3 und NE eine wichtige Rolle spielen. PR3 und NE können Proteine der extrazellulären Matrix abbauen, Apoptose in Endothelzellen induzieren und sind an der Regulation entzündlicher Prozesse über verschiedene Wirkmechanismen beteiligt. Um quantitative Unterschiede bei Entzündungsreaktionen zwischen NE/PR3-defizienten Mäusen und kongenen Wildtyp-Tieren zu untersuchen, wurde als Modell einer Typ III Hypersensitivitätsreaktion eine lokale passive Arthus-Reaktion induziert. Wildtyp-Mäuse entwickelten dabei eine deutlich stärkere lokale Entzündung als NE/PR3-defiziente Mäuse. Weitere Studien sind nötig um die Frage zu klären, ob eine der beiden Serinproteasen alleine oder in Kooperation mit der anderen diesen Phänotyp hervorruft. Für einen direkten synergistischen Effekt sprechen indes die Ergebnisse eines in vitro Experiments mit pro-rmPR3 und humaner NE: Bei Inkubation von pro-rmPR3 mit hNE wurde eine Spaltung des Proenzyms beobachtet, die mit einer Verstärkung der enzymatischen Bruttoaktivität einherging. Die physiologische Relevanz dieser Beobachtung muß allerdings noch geklärt werden. Die Ergebnisse der vorliegenden Arbeit stehen im Einklang mit den neuesten Erkenntnissen über die Rolle der PR3 bei der Wegener’schen Granulomatose: PR3 dürfte sowohl aufgrund pleiotroper Effekte auf entzündliche Reaktionen als auch wegen seiner lytischen Eigenschaften zur Gewebeschädigung beitragen. Darüberhinaus konnte eine pathogene Wirkung von mPR3-spezifischen Antikörpern in der Maus nachgewiesen werden.
Das "Ventilabrum medico-theologicum" (1666) von Michael Boudewyns ist eines der ersten medizinethischen Werke überhaupt. Darin werden sämtliche ethische Fragestellungen aus ärztlicher und theologischer Sicht behandelt. Vorliegende Dissertation beschäftigt sich mit den Kapiteln über Abtreibung, Empfängnisverhütung und weibliche Schönheitspflege. Die lateinischen Texte wurden übersetzt und kommentiert.
Boudewyns orientiert sich in seinen ethischen Entscheidungen vorwiegend an der kirchlichen Lehrmeinung, findet aber aufgrund seiner medizinischen Erfahrung zu einem eigenständigen, kritischen Urteil und leitet daraus Handlungsempfehlungen für die ärztliche Praxis ab.
Thema der Arbeit ist die Bedeutung von Macht und Gewalt für die Konstruktion von Weiblichkeit im Nibelungenlied; es handelt sich hierbei um einen der prominentesten Erzähltexte der mittelalterlichen Literaturgeschichte, der um 1200 vermutlich von einem Kleriker am Passauer Bischofshof verschriftlicht wurde. Die These, welche die vorliegende Untersuchung leitet, besteht in der Annahme, daß die Unterschiede zwischen männlichem und weiblichem Geschlecht, die im Text zutage treten, bestimmt werden durch unterschiedliche Teilhabe an Macht und Ausübung von Gewalt. In der Arbeit werden Fragestellungen der Historischen Anthropologie mit solchen der Gender Theorie verknüpft. Die Grundannahme, daß Weiblichkeit im Nibelungenlied ein soziokulturelles Produkt darstellt, an dessen Erzeugung sowohl der männliche Erzähler als auch die handelnden Figuren beteiligt sind, basiert auf zentralen Ergebnissen der Gender Studies. Das Thema der Gewalt und der historisierende Ansatz sind der Historischen Anthropologie verpflichtet. Die Untersuchung geht dementsprechend vom mittelalterlichen Gewaltbegriff aus, dessen Bedeutungsspektrum neben der willkürlichen und unrechtmäßigen Anwendung von Zwang und Unterdrückung sämtliche Grade und Formen rechtmäßiger Herrschaft umfaßt. Für die Beschreibung der zu beobachtenden Verletzungen geltender sozialer Regeln wird zudem TURNERs Theorie der Konfliktverlaufsmuster herangezogen. Die Entscheidung, das im Nibelungenlied enwickelte Konzept von Weiblichkeit als eine kulturelle Sonderwelt zu beschreiben, das auf einen außerepischen, aber gleichfalls immer nur textuell vermittelten Horizont kulturellen Wissens und sozialer Praktiken zu beziehen ist, läuft methodisch auf eine Diskursanalyse hinaus. Um Einblick in diesen Horizont zu bieten, werden zu Beginn der Untersuchung eine Reihe von für die Zeit um 1200 repräsentativen rechtlichen, theologischen und didaktischen Texten vorgestellt: der Sachsenspiegel Eikes von Repgow, einschlägige Bibelstellen, Äußerungen von Augustinus und Thomas von Aquin sowie die Winsbeckin und der Wälsche Gast Thomasins von Zerklaere. Im Zentrum der Arbeit steht die detaillierte Analyse des Nibelungenliedes. Das Reden über Gewalt und deren narrative Inszenierungen werden anhand der beiden Protagonistinnen des Epos untersucht, um den Diskurs des Werkes auf den eingangs vorgestellten außerliterarischen Rahmen beziehen zu können.
Die Bodenfeuchte stellt eine essenzielle Variable für den Energie-, Feuchte- und Stoffaustausch zwischen Landoberfläche und Atmosphäre dar. Ihre Auswirkungen auf Temperatur und Niederschlag sind vielfältig und komplex. Die in Klimamodellen verwendeten Schemata zur Simulation der Bodenfeuchte, auch bodenhydrologische Schemata genannt, sind aufgrund des Ursprungs der Klimamodelle aus Wettermodellen jedoch häufig sehr stark vereinfacht dargestellt.
Bei Klimamodellen, die Simulationen mit einer groben Auflösung von mehreren Zehner- oder Hunderterkilometern rechnen, können viele Prozesse vernachlässigt werden. Da die Auflösung der Klimamodelle jedoch stetig steigt und mittlerweile beim koordinierten Projekt regionaler Klimamodelle CORDEX-CORE standardmäßig bei 0.22° Kantenlänge liegt, müssen auch höher aufgelöste Daten und mehr Prozesse simuliert werden. Dies gilt erst recht mit Blick auf konvektionsauflösende Simulationen mit wenigen Kilometern Kantenlänge. Mit steigenden Modellauflösungen steigt zugleich die Komplexität und Differenziertheit der Fragestellungen, die mit Hilfe von Klimamodellen beantwortet werden sollen. An diesem Punkt setzt auch das Projekt BigData@Geo an, in dessen Rahmen die vorliegende Arbeit entstand. Ziel dieses Projektes ist es, hochaufgelöste Klimainformationen für den bayerischen Regierungsbezirk Unterfranken für Akteure aus der Land- und Forstwirtschaft sowie dem Weinbau zur Verfügung zu stellen.
Auf diesen angewandten und grundlegenden Anforderungen und Zielsetzungen basierend, bedarf auch das in dieser Arbeit verwendete regionale Klimamodell REMO (Version 2015) der weiteren Entwicklung. So ist das Hauptziel der Arbeit das bestehende einschichtige bodenhydrologische Schema durch ein mehrschichtiges zu ersetzen. Der Vorteil mehrerer simulierter Bodenschichten besteht darin, dass nun die vertikale Bewegung des Wassers in Form von Versickerung und kapillarem Aufstieg simuliert werden kann. Dies geschieht auf der Basis bodenhydrologischer Parameter, deren Wert in Abhängigkeit vom Boden und der Bodenfeuchte über die Wasserrückhaltekurve bestimmt wird. Für diese Kurve existieren verschiedene Parametrisierungen, von denen die Ansätze von Clapp-Hornberger und van Genuchten verwendet wurden. Außerdem kann die Bodenfeuchte nun bis zu einer Tiefe von circa 10 m beziehungsweise der Tiefe des anstehenden Gesteins simuliert werden. Damit besteht im Gegensatz zum vorherigen Schema, dessen Tiefe auf die Wurzeltiefe beschränkt ist, die Möglichkeit, dass Wasser auch unterhalb der Wurzeln zur Verfügung stehen kann und somit die absolute im Boden verfügbare Wassermenge zunimmt. Die Schichtung erlaubt darüber hinaus die Verdunstung aus unbewachsenem Boden lediglich auf Basis des in der obersten Schicht verfügbaren Wassers. Ein weiterer Prozess, der dank der Schichtung und der weiter unten erläuterten Datensätze neu parametrisiert werden kann, ist die Infiltration.
Für die Verwendung des Schemas sind Informationen über bodenhydrologische Parameter, die Wurzeltiefe und die Tiefe bis zum anstehenden Gestein erforderlich. Entsprechende Datensätze müssen hierfür aufbereitet und in das Modell eingebaut werden. Bezüglich der Wurzeltiefe wurden drei sich bezüglich der Tiefe, der Definition und der verfügbaren Auflösung stark voneinander unterscheidende Datensätze verglichen. Letztendlich wird die Wurzeltiefe aus dem mit einer anderen REMO-Version gekoppelten Vegetationsmodul iMOVE verwendet, da zukünftig eine Kopplung dieses Moduls mit dem mehrschichtigen Boden geplant ist und die Wurzeltiefen damit konsistent sind. Zudem ist die zugrundeliegende Auflösung der Daten hoch und es werden maximale Wurzeltiefen berücksichtigt, die besonders wichtig für die Simulation von Landoberfläche-Atmosphäre-Interaktionen sind. Diese Vorteile brachten die anderen Datensätze nicht mit. In der finalen Modellversion werden für die Tiefe bis zum anstehenden Gestein und die Korngrößenverteilungen die Daten von SoilGrids verwendet. Ein Vergleich mit anderen Bodendatensätzen fand in einer parallel laufenden Dissertation statt (Ziegler 2022). Bei SoilGrids ist hervorzuheben, dass die Korngrößenverteilungen in einer hohen räumlichen Auflösung (1 km^2 oder höher) und mit mehreren vertikalen Schichten vorliegen. Gegenüber dem ursprünglich in REMO verwendeten Datensatz mit einer Kantenlänge von 0.5° und ohne vertikale Differenzierung ist dies eine starke Verbesserung der Eingangsdaten. Dazu kommt, dass die Korngrößenverteilungen die Verwendung kontinuierlicher Pedotransferfunktionen statt fünf diskreter Texturklassen, denen für die bodenhydrologischen Parameter fixe Tabellenwerte zugewiesen werden, ermöglichen. Dies führt zu einer deutlich besseren Differenzierung des heterogenen Bodens.
Im Rahmen der Arbeit wurden insgesamt 19 Simulationen für Europa und ein erweitertes Deutschlandgebiet mit Auflösungen von 0.44° beziehungsweise 0.11° für den Zeitraum 2000 bis 2018 gerechnet. Dabei zeigte sich, dass die Einführung des mehrschichtigen Bodenschemas gegenüber dem einschichtigen Schema zu einer Verringerung der Bodenfeuchte in der Wurzeltiefe führt. Nichtsdestotrotz nimmt die absolute Wassermenge des Bodens durch die Berücksichtigung des Bodens unterhalb der Wurzelzone zu. Bezogen auf die einzelnen Schichten wird die Bodenfeuchte damit zwar unterschätzt, im Laufe der Modellentwicklung kann jedoch eine Verbesserung im Vergleich zu ERA5 erzielt werden. Das neue Schema führt zu einer Verringerung der Evapotranspiration, die über alle Schritte der Modellentwicklung und besonders während der Sommermonate auftritt. Im Vergleich zu Validationsdaten von ERA5 und GLEAM zeigt sich, dass dies eine Verbesserung dieser Größe bedeutet, die sowohl in der Fläche als auch beim Fehler und in der Verteilung auftritt.
Gleiches lässt sich für den Oberflächenabfluss sagen. Hierfür implementierte Schemata (Philip, Green-Ampt), die anders als das standardmäßig verwendete Improved-Arno-Schema bodenhydrologische Parameter berücksichtigen, konnten eine weitere Verbesserung im Flachland zeigen. In Gebirgsregionen nahm der Fehler durch die nicht enthaltene Berücksichtigung der Hangneigung jedoch zu, sodass in der finalen Modellversion auf das Improved-Arno-Schema zurückgegriffen wurde. Die Temperatur steigt durch die ursprüngliche Version des mehrschichtigen Schemas zunächst an, was zu einer Über- statt der vorherigen Unterschätzung gegenüber E-OBS führt. Die Modellentwicklung resultiert zwar in einer Reduzierung der Temperatur, jedoch fällt diese zu stark aus, sodass der Temperaturfehler letztendlich größer als in der einschichtigen Modellversion ist. Da die Evapotranspiration jedoch maßgeblich verbessert wurde, kann dieser Fehler eventuell auf ein übermäßiges Tuning der Temperatur zurückgeführt werden.
Die Betrachtung von Hitzeereignissen am Beispiel der Sommer 2003 und 2018 hat gezeigt, dass die Modellentwicklung dazu beiträgt, diese Ereignisse besser als das einschichtige Schema zu simulieren. Zwar trifft dies nicht auf das räumliche Verhalten der mittleren Temperatur zu, jedoch auf deren zeitlichen Verlauf. Hinzu kommt die bessere Simulation der täglichen Extrem- und besonders der Minimaltemperatur, was zu einer Erhöhung der täglichen Temperaturspanne führt. Diese wird von Klimamodellen in der Regel zu stark unterschätzt.
Durch die Berücksichtigung der vertikalen Wasserflüsse hat sich jedoch auch gezeigt, dass noch enormes Entwicklungspotenzial mit Blick auf (boden)hydrologische Prozesse besteht. Dies gilt in besonderem Maße für zukünftige Simulationen mit konvektionserlaubender Auflösung. So sollten subskalige Informationen des Bodens und der Orographie berücksichtigt werden. Dies dient einerseits der Repräsentation vorliegender Heterogenitäten und kann andererseits, wie am Beispiel der Infiltrationsschemata dargelegt, zur Verbesserung bestehender Prozesse beitragen. Da die simulierte Drainage durch das mehrschichtige Bodenschema im gleichen Maße zu- wie der Oberflächenabfluss abnimmt und das Wasser dem Modell in der Folge nicht weiter zur Verfügung steht, sollte zukünftig auch Grundwasser im Modell berücksichtigt werden. Eine Vielzahl von Studien konnte einen Mehrwert durch die Implementierung dieser Variable und damit verbundener Prozesse feststellen. Mittelfristig ist jedoch insgesamt die Kopplung an ein hydrologisches Modell zu empfehlen, um die bei hochauflösenden Simulationen relevanten Prozesse angemessen repräsentieren zu können. Hierfür bieten sich beispielsweise ParFlow oder mHM an.
Insgesamt ist festzuhalten, dass das mehrschichtige Bodenschema einen Mehrwert liefert, da schwer zu simulierende und in der Postprozessierung zu korrigierende Variablen wie die Evapotranspiration und der Oberflächenabfluss deutlich besser modelliert werden können als mit dem einschichtigen Schema. Dies gilt auch für die Extremtemperaturen. Beides ist klar auf die Schichtung des Bodens und damit einhergehender Prozesse zurückzuführen. Bezüglich der Daten zeigt sich, dass die Wurzeltiefe, die Berücksichtigung von SoilGrids und die vertikale Bodeninformation für die weitere Optimierung verantwortlich sind. Darüber hinaus ist der höhere Informationsgehalt, der anhand der geschichteten Bodenfeuchte zur Verfügung steht, ebenfalls als Mehrwert einzustufen.
In der Scheidungsforschung werden Kinder als ein zentraler Einflussfaktor der Ehestabilität thematisiert. Je nachdem welches Kindschaftsverhältnis oder Charakteristikum von Kindern vorliegt, ist mit der Erhöhung oder Verminderung der Ehestabilität zu rechnen. Zum Beispiel wird nach der Familienökononmie, durch das Vorhandensein von unehelichen Kindern in einer Ehe die Ehestabilität vermindert, während eheliche Kinder das Scheidungsrisiko reduzieren. In den meisten Untersuchungen der Scheidungsforschung werden die unterschiedlichen Einflüsse von Elternschaft auf das Scheidungsrisiko dennoch weniger gut beleuchtet. Weiterhin ist in Anlehnung an die Theorien davon auszugehen, dass der Einfluss von Kindern auf die Ehestabilität nur erforscht werden kann, wenn bei der Operationalisierung der Kindvariablen eindeutig nach Kindschaftsverhältnissen differenziert wird, dieses Vorgehen findet sich allerdings nur in wenigen Studien der Scheidungsforschung. Diese Dissertation versucht die Lücke zu schließen, indem sie die Einflüsse unterschiedlicher Charakteristika von Kindern und verschiedener Kindschaftsverhältnisse auf die Ehestabilität mit den Daten des Familiensurveys 2000 methodisch korrekt und in einem möglichst großem Spektrum untersucht. In dieser Arbeit werden die unterschiedlichen Kindschaftsverhältnisse und Charakteristika von Kindern so operationalisiert, dass der Einfluss anderer Effekte ausgeschlossen wird. Nur durch dieses Vorgehen können letztendlich die Einflüsse von Kindern auf die Ehestabilität eindeutig aufgezeigt werden. Die Ergebnisse der Dissertation zeigen zum einen, wie die relevanten Theorien den Einfluss von Kindern auf die Ehestabilität begründen und zum anderen bestätigen die Befunde der multivariaten Analysen, dass in Abhängigkeit von Kindschaftsverhältnis oder Charakteristika der Kinder unterschiedliche Richtungen des Scheidungsrisikos zu berichten sind. Dadurch kann die Vermutung bestätigt werden, dass die exakte Differenzierung nach Kindschaftsverhältnissen und unterschiedlichen Charakteristika von Kindern und die methodisch korrekte Operationalisierung der Kindvariablen bedeutsame Unterschiede in den Scheidungsraten aufdeckt.
Die Lungenschädigung im Rahmen eines akuten Atemnotsyndroms (ARDS) ist gekennzeichnet durch ein nicht-kardiogenes Lungenödem, verursacht durch eine erhöhte Kapillarpermeabilität sowie einen Anstieg des pulmonalarteriellen Druckes, an deren Pathogenese verschiedene Mechanismen und Mediatoren beteiligt sind. Obwohl eine akute Lungenschädigung auch bei neutropenischen Patienten und in Leukozyten-freien Tiermodellen beobachtet wurde, spielen neutrophile Granulozyten hierbei eine entscheidende Rolle. Dies schlägt sich in der hohen Granulozytenzahl sowie in der erhöhten MPO-Aktivität der bronchoalveolären Lavage von ARDS-Patienten nieder. Stimulierte neutrophile Granulozyten verfügen über mehrere Mechanismen zur Schädigung des umgebenden Gewebes: proteolytische Enzyme, Produkte des Prostanoidstoffwechsels sowie reaktive Sauerstoffmetabolite. Diese Arbeit beschäftigt sich mit den durch neutrophile Granulozyten produzierten reaktiven Sauerstoffmetaboliten Hypochlorsäure und Wasserstoffperoxid, die zu den nichtradikalischen Oxidantien zählen. Ziel dieser Arbeit ist die Charakterisierung der Effekte einzelner Oxidantien, wie von Hypochlorsäure und Wasserstoffperoxid, auf die pulmonale Mikrozirkulation. Weiterhin soll das Ablaufen von Lipidperoxidationsprozessen im Rahmen von oxidativem Stress anhand von Endprodukten der Lipidperoxidation im Gewebe nachgewiesen werden. Schließlich soll die Gegenüberstellung von Parametern der akuten Lungenschädigung mit dem Ausmaß der Lipidperoxidation im Gewebe Aufschluss geben über einen eventuellen kausalen Zusammenhang zwischen Lipidperoxidation und Schädigung der Zirkulation. Am Modell der isolierten ventilierten und perfundierten Kaninchenlunge werden die Effekte von oxidativem Stress auf den pulmonalarteriellen Druck und die Gefäßpermeabilität charakterisiert. Hierzu werden die zu untersuchenden Oxidantien Hypochlorsäure, Wasserstoffperoxid bzw. das System aus Myeloperoxidase und Wasserstoffperoxid kontinuierlich in den pulmonalarteriellen Schenkel infundiert. Pulmonalarterieller Druck, pulmonalvenöser Druck und Flüssigkeitsretention werden kontinuierlich registriert, während der kapilläre Filtrationskoeffizient zu bestimmten Zeitpunkten gravimetrisch ermittelt wird. Dabei zeigt sich, dass die isolierte Applikation von HOCl, H2O2 bzw. des Systems MPO/H2O2 in der pulmonalen Strombahn eine Erhöhung des pulmonalarteriellen Druckes und der Gefäßpermeabilität bewirkt, wie es für die akute Lungenschädigung charakteristisch ist. Allerdings unterscheiden sich die Schädigungsmuster der einzelnen Oxidantien im zeitlichen Ablauf der Veränderungen von Gefäßpermeabilität und PAP. In jeder einzelnen Versuchsgruppe konnte eine Anreicherung von Lipidperoxidationsprodukten im Gewebe nachgewiesen werden. Es besteht jedoch keine Korrelation zwischen dem Ausmaß der Anreicherung der Lipidperoxidationsprodukte und dem Ausmaß der Veränderungen der Zirkulation. Es muss also vermutet werden, dass die Bildung von Lipidperoxidationsprodukten durch oxidativen Stress im Rahmen einer akuten Lungenschädigung eher ein Epiphänomen darstellt. Als Pathomechanismus ließe sich die spezifische Modifikation freier funktioneller Gruppen durch die nicht-radikalischen Oxidantien postulieren.
Diese Arbeit befasst sich mit der störungstheoretischen Berechnung von zweidimensionalen Photonen-Echo-Spektren für das elektronische und vibronische Modell eines Homo- und Hetero-Dimers sowie für ein vibronisches Modell eines Monomers unter dem Einfluss einer System-Bad-Wechselwirkung. Bei der Analyse der Dimerspektren steht neben der Orientierungsmittelung der Polarisation dritter Ordnung der Unterschied zwischen elektronischen und vibronischen Spektren sowie der Vergleich der Spektren von Homo- und Hetero-Dimeren im Zentrum des Interesses. Bei der Analyse der Monomer-Spektren steht die Behandlung einer dissipativen Dynamik bzw. des vibrational-coolings innerhalb eines stochastischen Ansatzes im Vordergrund.
Der erste Teil dieser Arbeit konzentriert sich auf die störungstheoretische Berechnung der Polarisation dritter Ordnung in Dimeren. Dabei werden alle Aspekte und Ergebnisse für verschiedene Geometrien der Übergangsdipolmomente analysiert und diskutiert. Die Berechnungen berücksichtigen dabei auch die zufällige Anordnung der Moleküle in der Probe. Die Zusammenhänge zwischen den 2D-Spektren und den Eigenschaften der Monomereinheiten, die Abhängigkeit der Intensitäten mancher Peaks von der zeitlichen Abfolge der Pulse sowie der Einfluss der elektronischen Kopplung und verschiedener Übergangsdipolmomente ermöglichen ein grundlegendes Verständnis der elektronischen Photonen-Echo-Spektren. Im elektronischen Dimer wird der Hetero-Dimer-Charakter durch verschiedene Monomeranregungsenergien sowie unterschiedliche Übergangsdipolmomente der Monomereinheiten bestimmt. Der Einfluss dieser Größen auf die Photonen-Echo-Spektren kann durch die Kombination einer detaillierten analytischen Betrachtung und numerischen Rechnungen anschaulich nachvollzogen werden. In der vibronischen Betrachtungsweise zeigt sich, dass die Spektren deutlich an Komplexität gewinnen. Durch die Vibrationsfreiheitsgrade vervielfachen sich die möglichen Übergänge im System und damit die möglichen Peakpositionen im Spektrum. Jeder Peak spaltet in eine Vibrationssubstruktur auf, die je nach ihrer energetischen Position mit anderen überlagern kann. Der Vergleich zwischen Homo- und Hetero-Dimer-Spektren wird durch die Wahl verschiedener Vibrationsfrequenzen und unterschiedlicher Gleichgewichtsabstände entlang der Vibrationskoordinaten erweitert.
Die Berechnung des Orientierungsmittels erfolgt mit zwei verschiedenen Ansätzen. Zum einen wird das Mittel durch den numerischen sampling-Ansatz berechnet. Dabei werden Azimutal- und Polarwinkel in kleinen Winkelinkrementen abgetastet und für jede Kombination ein 2D-Spektrum berechnet. Die Einzelspektren werden anschließend gemittelt. Diese Methode erweist sich im Dimer als sehr effektiv. Zum anderen erlaubt die analytische Auswertung der Polarisation dritter Ordnung, das gemittelte Spektrum direkt in einer einzelnen Rechnung durch winkelgemittelte Gewichtungsfaktoren zu bestimmen. Bei der Berechnung der elektronischen 2D-Spektren ist diese Methode sehr leistungsfähig, da alle Ausdrücke analytisch bekannt sind. Für vibronische Systeme ist dieser Ansatz ebenfalls sehr leistungsstark, benötigt aber eine einmalige aufwendige Analyse vor der Berechnung. Trotz der deutlich erhöhten Anzahl an Zustandsvektoren, die propagiert werden müssen, ist diese Methode circa zweimal schneller als die direkte Mittelung mit der sampling-Methode.
Im zweiten Teil konzentriert sich die Arbeit auf die Beschreibung eines Monomers, das sich in einer dissipativen Umgebung befindet. Dabei wird auf die Lösung einer stochastischen Schrödingergleichung zurückgegriffen. Speziell wird die sogenannte quantum-state-diffusion-Methode benutzt. Dabei werden nicht nur die Erwartungswerte für die Energie und den Ort, sondern auch die Polarisation dritter Ordnung – eine phasensensitive Größe – bestimmt. In der theoretischen Fragestellung wird dabei, ausgehend von der von-Neumann Gleichung, die Zeitentwicklung der reduzierten Dichtematrix durch die Integration einer stochastischen zeitabhängigen Schrödingergleichung reproduziert. In Rechnungen koppelt die Stochastik über die Erwartungswerte von Ort und Impuls die verschiedenen störungstheoretischen Korrekturen der Wellenfunktion miteinander. Die Spektren, die aus den numerischen Simulationen erhalten werden, spiegeln das dissipative Verhalten des Systems detailliert wider. Eine Analyse der Erwartungswerte von Ort und Energie zeigt, dass sich die einzelnen elektronischen Zustände wie gedämpfte harmonische Oszillatoren verhalten und jeweils einen exponentiellen Zerfall abhängig von der Dissipationskonstante zeigen. Dieser Teil der Arbeit erweitert vorausgehende Untersuchungen, bei denen ein vereinfachter Ansatz zu Einsatz kam, der die korrelierte Stochastik nicht berücksichtigte.
Diese Arbeit befasst sich mit zeitaufgelösten Prozessen in molekularen Systemen. Dabei wurde sowohl die Wellenpaketdynamik nach Photoanregung betrachtet als auch spektrale Eigenschaften mittels Absorptions- und zweidimensionaler Spektroskopie untersucht.
Zunächst widmet sich die Arbeit der Wellenpaket- und Populationsdynamik in zwei diabatischen, gekoppelten Zuständen. Nach impulsiver Anregung aus dem zu Beginn besetzten Zustand treten in der Populationsdynamik zwei deutlich verschiedene Oszillationen auf. Der langsamer variierende Populationstransfer besitzt die Periodendauer der Vibrationsbewegung und ist auf einen Wechsel der Zustände beim Durchlaufen des Wellenpakets durch die Kreuzungsregion der diabatischen Potentiale zurückzuführen. Die ultraschnelle Komponente mit einer Periodendauer von etwa 4 fs lässt sich als eine Art Rabi-Oszillation beschreiben, die durch die (zeitunabhängige) Kopplung hervorgerufen wird. Sie wurde mit Hilfe von analytischen Berechnungen ausführlich charakterisiert. Damit dieser Prozess auftreten kann müssen mehrere Bedingungen erfüllt werden: Das Wellenpaket muss über die Dauer der Oszillationen annähernd örtlich lokalisiert bleiben; dies ist an den Umkehrpunkten der Wellenpaketsbewegung der Fall. Die Amplitude der Oszillationen in den Populationen ist proportional zum Verhältnis der Kopplung zum Energieabstand der Zustände. Deshalb muss an den stationären Stellen die Kopplung groß im Vergleich zum Energieabstand sein. Die Amplitude der Oszillationen hängt außerdem von dem Populationsverhältnis und den Phasen der Komponenten des Wellenpakets in den beiden Zuständen ab. Die ultraschnellen Oszillationen bleiben auch in mehrdimensionalen Systemen mit unterschiedlichen Vibrationsfrequenzen je Freiheitsgrad erhalten.
Das gleiche Modell wurde benutzt, um Ladungstransferprozesse mittels linearer und 2D-Spektroskopie zu untersuchen. Eine Kopplung an die Umgebung wurde, aufbauend auf einer Quanten-Master-Gleichung in Markov-Näherung, wellenfunktionsbasiert mittels eines Quantum-Jump-Algorithmus mit expliziter Dephasierung beschrieben. Dabei findet mit vorher definierten Wahrscheinlichkeiten zu jedem Zeitschritt einer von drei stochastischen Prozessen statt. Neben kohärenter Propagation können Sprünge in einen anderen Eigenzustand des Systems und Dephasierungen auftreten. Zwei Dissipationsparameter spielen dabei eine Rolle. Dies ist zum einen die Stärke der System-Bad-Kopplung, welche die Gesamtrate der Energierelaxation beschreibt. Weiterhin beeinflusst die Dephasierungskonstante den Verlust kohärenter Phasen ohne Energieänderung. Fallenzustände wurden identifiziert, die durch sehr geringe Sprungraten in niedrigere Zustände charakterisiert sind. Die Langlebigkeit kann durch die Form der Eigenfunktionen erklärt werden, die eine deutlich andere Wahrscheinlichkeitsverteilung als die der Nicht-Fallenzustände besitzen. Dadurch werden die in die Sprungraten eingehenden Matrixelemente klein. Das Absorptionsspektrum zeigt Peaks an der Stelle der Fallenzustände, da nur die Eigenfunktionen der Fallenzustände große Franck-Condon-Faktoren mit der Anfangswellenfunktion besitzen. Verschiedene Kombinationen der Dissipationsparameter führen zu Änderungen der relativen Peakintensitäten und der Peakbreiten.
Die 2D-Spektren des Ladungstransfersystems werden störungstheoretisch über die Polarisation dritter Ordnung berechnet. Sie zeigen viele eng nebeneinander liegende Peaks in einer schachbrettmusterförmigen Anordnung, die sich auf Übergänge unter Mitwirkung der Fallenzustände zurückführen lassen. Höhere System-Bad-Kopplungen führen aufgrund der effizienten Energiedissipation zu einer Verschiebung zu kleineren Energien. Peaks, die mit schneller zerfallenden Fallenzuständen korrespondieren, bleichen schneller aus. Höhere Dephasierungskonstanten resultieren in verbreiterten Peaks. Um den Einfluss der Dissipation genauer zu charakterisieren, wurden gefilterte 2D-Spektren betrachtet. Dazu wurden Ausschnitte der Polarisation dritter Ordnung zu verschiedenen Zeiten fouriertransformiert. Längere Zeiten führen zu einer effektiveren Energierelaxation entlang der entsprechenden Zeitvariablen. Die Entvölkerung der höher liegenden Zustände lässt sich somit zeit- und energieaufgelöst betrachten. Weiterhin wurde gezeigt, dass sich der Zerfall eines einzelnen Peaks mit dem Populationsabfall des damit korrespondierenden Eigenzustandes in Einklang bringen lässt, obwohl die Zuordnung der Peaks im 2D-Spektrum zu Übergängen zwischen definierten Eigenzuständen nicht eindeutig ist.
Mit dem benutzten eindimensionalen Modell können auch Ladungstransferprozesse in organischen gemischtvalenten Verbindungen beschrieben werden. Es wurde die Frage untersucht, welche Prozesse nach einem optisch induzierten Energietransfer in solchen Systemen ablaufen. Experimentelle Daten (aufgenommen im Arbeitskreis von Prof. Lambert) deuten auf eine schnelle interne Konversion (IC) gefolgt von Thermalisierung hin. Um dies theoretisch zu überprüfen, wurden Absorptionsspektren bei verschiedenen Temperaturen berechnet und mit den gemessenen transienten Spektren verglichen. Es findet sich, abhängig von der Stärke der elektronischen Kopplung, eine sehr gute bis gute Übereinstimmung, was die Annahme eines schnellen ICs stützt.
Im letzten Teil der Arbeit wurden vibronische 2D-Spektren von molekularen Aggregaten betrachtet. Dazu wurde die zeitabhängige Schrödingergleichung für ein Monomer-, Dimer- und Trimersystem mit der Multi-Configuration Time-Dependent Hartree-Methode gelöst und die Polarisation nicht-störungstheoretisch berechnet. Der Hamiltonoperator des Trimers umfasst hierbei sieben gekoppelte elektronische Zustände und drei bzw. sechs Vibrationsfreiheitsgrade. Der betrachtete Photonenecho-Beitrag der Polarisation wurde mittels phasencodierter Laserpulse extrahiert. Die resultierenden Spektren sind geometrieabhängig, ein Winkel zwischen den Übergangsdipolmomenten der Monomere von 0° (180°) resultiert in einem H-Aggregat (J-Aggregat). Die Lage und Intensität der Peaks im rein elektronischen Trimer wurde analytisch erläutert. Die Spektren unter Einbeziehung der Vibration zeigen eine ausgeprägte vibronische Struktur. Es wurde gezeigt, wie die Spektren für höhere Aggregationsgrade durch die höhere Dichte an vibronischen Zuständen komplexer werden. Im J-Aggregat ist mit zunehmender Aggregation eine stärkere Rotverschiebung zu sehen. Das Spektrum des H-Aggregats zeigt eine im Vergleich zum J-Aggregat kompliziertere Struktur. Die Verwendung zweier Vibrationsfreiheitsgrade je Monomer führt zu Spektren mit überlappenden Peaks und einer zusätzlichen vibronischen Progression. Der Vergleich von Spektren verschiedener Mischungen von Monomer, Dimer und Trimer, entsprechend einem von Temperatur und Konzentration abhängigen Aggregationsgrad, zeigt den Einfluss dieser experimentellen Faktoren. Schließlich wurden mögliche Ansätze aufgezeigt, anhand der Spektren auf den Aggregationsgrad zu schließen.
Hintergrund und Zielsetzung: Das Refluxrezidiv ist im Langzeitverlauf die häufigste Komplikation nach Fundoplikatio. Die Häufigkeit war in randomisierten Studien unabhängig von der Manschettenkonfiguration. In dieser Studie wurden die 10-Jahres Ergebnisse nach laparoskopischer Antirefluxchirurgie für verschiedene Operationsverfahren retrospektiv verglichen. Methoden: Im Zeitraum von 1992 bis 1997 wurden 120 Patienten (41 Frauen, 49 ± 14 Jahre) laparoskopisch primär operiert nach einem ‚tailored approach’ (OP Verfahren entsprechend der Ösophagusperistaltik). 88 erhielten eine Nissen-Fundoplikatio, 22 eine vordere Hemifundoplikatio und 10 eine Toupet-Fundoplikatio. Die Verlaufsuntersuchung umfasste krankheitsspezifische Fragen und den gastrointestinalen Lebensqualitätsindex nach Eypasch (GIQLI). Ergebnisse: 99 Patienten (87 %) konnten nachuntersucht werden, 6 Patienten waren verstorben. 89% der Patienten würden sich wieder operieren lassen. Unabhängig von der Manschettenkonfiguration wurde Sodbrennen noch von 30% der Patienten angegeben. Regurgitationen wurden von 15% der Patienten nach Nissen, von 44% nach vorderer Hemifundoplikatio und von 10% nach Toupet berichtet (p=0,04). 27 der 99 Patienten (28%) nahmen wieder Säure reduzierende Medikamente ein: 23% nach Nissen, 44% nach vorderer Hemifundoplikatio und 43% nach Toupet (p=0,17). Signifikant weniger häufig wurden hierbei Protonenpumpeninhibitoren von Patienten nach Nissen-Fundoplikatio eingenommen (p=0,01). Der GIQLI betrug 110 +/- 24 ohne signifikante Unterschiede bzgl. der OP-Technik. Schlussfolgerung: Die 10-Jahres Ergebnisse nach laparoskopischer Fundoplikatio sind insgesamt zufriedenstellend. Etwa ein Viertel der Patienten nimmt wieder Säure reduzierende Medikamente ein, wobei die Nissen-Fundoplikatio bezüglich der Refluxkontrolle einer Teilmanschette überlegen zu sein scheint.
Die Texte des Elijazyklus (1 Kön 17 - 2 Kön 2*) haben im Rahmen der Monotheismusdebatte besondere Aktualität erlangt und neue Fragestellungen hervorgerufen. Antworten auf diese weitreichenden religionsgeschichtlichen Fragen an alttestamentliche Texte sind aber ohne exakte Textanalysen nicht möglich. Ziel dieser Dissertation ist es deshalb, diese unumgängliche Basisarbeit für den Anfang des Elijazyklus 1 Kön 17 und 18 zu leisten, der von jeher der Exegese viel Schwierigkeiten bereitet und kontroverse Debatten nach sich gezogen hat. Diese konzentrieren sich auf das literarische Problem der Textfolge: Sind also diese Einzelüberlieferungen noch erkennbar und literarisch rekonstruierbar, oder liegen sie im traditionsgeschichtlichen Dunkel der Vorgeschichte der Texte verborgen? Diese Fragen der neueren Auslegungsgeschichte stehen auch am Ausgangspunkt dieser Dissertation und bilden ihren forschungsgeschichtlichen Rahmen. In der vorliegenden Studie soll bei diachroner Sichtweise der Texte ihre Primärgestalt herausgearbeitet und sprachanalytisch ausgewertet werden, wobei eine Konzentration auf die Analyse der Schichtung innerhalb der Einzeltexte erfolgt. Abschließend können drei Themenkreise benannt werden, die insgesamt sieben Einheiten kompositionell übergreifen und mögliche Ordnungsprinzipien bei redaktioneller Vereinheitlichung der Texte darstellen. Den eigentlichen Schwerpunkt der Arbeit bildet der zweite analytische Schritt der literaturwissenschaftlichen Methode, die Formkritik. Diese Untersuchung verläuft auf den klassischen vier Ebenen des Grammatikaufbaus von WOLFGANG RICHTER: Analyse der Wortebene, der Wortfügungsebene, der Satzebene und der Textebene. Hier wird das literarische Urteil formanalytisch überprüft und die Schwerpunkte und Ziele der Einzelheiten streng am Sprachbefund bestimmt. Im Gesamtergebnis der Arbeit kann als zusätzlicher Ertrag die Vielfalt des Prophetenbildes in der Textfolge von 1 Kön 17.18 gewonnen und ein kontrastreiches Elijabild beschrieben werden.
In den vergangenen Jahren wurden vermehrt sogenannte Alginatersatzmaterialien für Indikationsbereiche entwickelt, für die bislang hauptsächlich Alginate verwendet wurden. In dieser in-vitro Studie wurden acht Alginatersatzmaterialien auf Basis von additionsvernetzenden Silikonen und vier Alginate auf ausgewählte mechanische Werkstoffeigenschaften hin untersucht, um beide Materialarten zu vergleichen und daraus Anwendungsempfehlungen ableiten zu können. Die getesteten Alginate waren Alginoplast Regular Set, Blueprint XCreme, Jeltrate Regular Set und Xantalgin select Fast Set. Die getesteten A-Silikone waren AlgiNot FS Cartridge und Volume, AlginX Ultra Cartridge, Position Penta, Silginat, Status Blue, Xantasil Cartridge und Dynamix fast set. Dabei wurden folgenden Materialeigenschaften untersucht: Verformung unter Druck, Rückstellung nach Verformung, Detailwiedergabegenauigkeit, Dimensionsstabilität, Reißfestigkeit, -dehnung, -energie, Toughness, E-Modul und Homogenität. Die Messverfahren, die verwendet wurden, sind in den Normen DIN EN ISO 4823, DIN EN 21563 und DIN 53504 beschrieben. Zur Messung der Dimensionsstabilität wurde ein neues Verfahren angewendet. Der Vergleich der Homogenität richtete sich nach rein optischen Kriterien der abgebundenen Abformmaterialien.
Die Ergebnisse zeigen, dass die getesteten Alginatsubstitute gegenüber den Alginaten vorteilhafte Eigenschaften besitzen. Alginate sind gegenüber äußeren Kräften nicht annähernd so widerstandsfähig wie Silikone und lassen sich bei gleicher Krafteinwirkung stärker komprimieren (Verformung unter Druck). Alginate sind leichter, aber weniger weit dehnbar (Reißdehnung). Die Alginate reißen bei deutlich geringerer Zugbelastung (Reißfestigkeit), vor allem in Bereichen, in denen das Abformmaterial nur dünn ausgelaufen ist (Toughness). Die elastische Rückstellungsrate der Alginate und von AlgiNot nach Druckbelastung liegt zwar noch im Normbereich, ist jedoch deutlich geringer als bei den anderen Silikonen, welche eine nahezu vollständige Rückstellung aufweisen. Sowohl Silikone als auch Alginate sind prinzipiell in der Lage, auch feinste Strukturen von 20µm Breite gut abzuformen (Detailwiedergabegenauigkeit). Der Versuch zur Messung der Dimensionsänderung zeigt, dass Alginatabformungen selbst unter optimalen Lagerungsbedingungen bereits nach weniger als 24 Stunden so stark geschrumpft sind, dass es ratsam ist die Abformung zu wiederholen. Die Silikone können mit Ausnahme von Silginat mindesten 14 Tage gelagert werden. Für Silginatabformungen wird eine Lagerungsdauer von maximal sieben Tagen empfohlen. Die Beobachtungen zur Homogenität der angemischten Materialien lassen schließen, dass Silikone bei Verwendung von Automischmaschinen besser und gleichmäßiger vermischt werden.
Aufgrund der besseren Materialeigenschaften eignen sich Alginatsubstitute vor allem für Abformungen, die über längere Zeit gelagert werden müssen, bevor ein Gipsmodell hergestellt werden kann und haben den Vorteil, dass aus einer Abformung mehrere Modelle hergestellt werden können. Für die meisten Indikationen genügen die Eigenschaften der Alginate zur Herstellung hinreichend genauer Modelle. Alginate haben außerdem den Vorteil, dass Abformungen mit deutlich geringerer Kraft aus dem Mund entnommen werden können.
Werteaspekte im Deutschunterricht der Realschule Repräsentative Paradigmen und literaturdidaktische Exemplifizierungen Die Aktualität der Werte-Thematik findet u.a. auch im Deutschunterricht ein komplexes Betätigungsfeld für unterrichtliche Aufgaben, die sowohl einer wissenschaftstheoretischen Erläuterung als auch einer Exemplifizierung an konkreten Unterrichtsbeispielen bedürfen. In den Kapiteln zwei und drei der Arbeit erfolgt deshalb zunächst eine terminologische Auseinandersetzung mit dem Werte-Begriffsfeld. Als Referenzgrundlage hierzu dient Nicolai Hartmanns Werk Ethik aus den Anfängen des 20. Jahrhunderts. Auf Grund des vielschichtig und klar differenzierten Wertekonzepts kann dieses auch heute noch mit allen modernen Ansätzen von Wertstrukturierungen konkurrieren. Ausgehend von gesellschaftspolitischen, familienbezogenen und schulischen Anliegen werden in Kapitel drei spezifische Perspektiven diskutiert, um so ein Verständnis zu bekommen für die vielschichtigen Werte-Bereiche der Jugendlichen: Damit sind all die Erlebensmomente anzusprechen, die im Zusammenhang stehen mit der Familie, der Schule und sonstigen sekundärgesellschaftlichen Gruppierungen, aber auch mit individuellen Erfahrungsparadigmen, wie dem Heimatempfinden, der Einstellung zur Politik, zur Arbeitswelt, zur Freizeit oder zur Sexualität. Umfassend dargestellt wird im dritten Kapitel vor allem der Lehrplan der sechsstufigen Realschule in Bayern. Die Ausführungen in diesem Zusammenhang sollen bei Bedarf als eine mögliche Arbeitsgrundlage und Fundstelle für die Ausgestaltung eigener unterrichtlicher Ideen im Zusammenhang mit der Wertethematik dienen. In Kapitel vier Welche Werte sind für junge Menschen von heute wichtig? polarisieren sich unter Berücksichtigung der „neuen Werte“ der Jugend die bisher erarbeiteten Aspekte in einer Abgrenzung der „sittlichen“ von den „nicht sittlichen“ Werten. Hier wird vor allem die Auswertung einer Fragebogenaktion in Form von Diagrammen aufgezeigt. Im folgenden Kapitel fünf Was kann der Literaturunterricht zur Vermittlung und Reflexion von Werten beitragen? werden zunächst verschiedene gesellschaftspropädeutische Funktionen eines „wert-vollen“ Literaturunterrichts dargestellt und in Zusammenhang gebracht mit Literatur als Sozialisationsinstrumentarium. Eine kurze synoptische Darstellung ausgewähl-ter fachdidaktischer Positionen aus der zweiten Hälfte des 20. Jahrhunderts zu literaturdidaktischen Zielvorstellungen im Zusammenhang mit didaktischen Aspekten der Werteproblematik schließt diesen Teil der Arbeit ab. Im unterrichtspraktisch ausgerichteten Kapitel 6: Wie lässt sich das exemplarisch metho-disieren? geht es zunächst darum, Verfahrensmöglichkeiten im Literaturunterricht im Zusammenhang mit der Wertethematik zu evaluieren. Hier sind dies der Lehrervortrag, die Gruppenarbeit und das Unterrichtsgespräch, die auf ihre reale Umsetzbarkeit explorativ an Unterrichtsbeispielen überprüft werden. Die dabei zu Grunde gelegten Beispiele berücksichtigen sowohl literaturwissenschaftliche als auch literaturdidaktische Überlegungen. An Hand ausgewählter Textbeispiele aus Goethes Briefroman Die Leiden des jungen Werthers sollen unter literaturwissenschaftlicher Perspektive verschiedene unterrichtliche Ausgangspunkte für Werthaltungsfragen angesprochen werden, die durchaus in einer achten Jahrgangsstufe thematisierbar sind. Eine literaturdidaktische Fokussierung ist dort angebracht, wo sich kreative Arbeitsweisen in Verbindung mit Handlungs- und Produktionsorientierung anbieten. Im Mittelpunkt steht hier deshalb neben dem abschließenden Unterrichtsbeispiel zu dem Text Spaghetti für zwei die Darstellung eines „Märchen-Projekts“ in einer 5. Jahrgangsstufe. Gezeigt wird, wie die Werte-Thematik mittels verschiedener integrativer, aber auch fächerübergreifender Verknüpfungen in einer Unterrichtssequenz variantenreich anwendbar ist.
Es wurden Perfusionsmessungen mittels MRT an Infarktpatienten im Akutstadium und im Langzeitverlauf durchgeführt und quantitativ mittels einem Sektormodell ausgewertet. Hierbei zeigte sich, dass sich die Perfusionswerte im Infarktareal und gesunden Myokard nicht signifikant unterschieden und dass sich diese auch im Jahresverlauf nicht signifikant änderten. Es ergab sich auch keine signifikante Korrelation zwischen der Größe des Infarkareales und den gemessenen Perfusionswerten.
Wertigkeit der Arthroskopie in der Behandlung der pathologischen Befunde des oberen Sprunggelenkes
(2003)
Diese Studie bewertet die Ergebnisse und Indikationen der Arthroskopie am oberen Sprunggelenk. Im Zeitraum von 1987 bis 1997 wurden 272 Patienten arthroskopisch untersucht. 143 dieser Patienten konnten nach objektiven und radiologischen Kriterien, zusätzlich nach subjektiven Parametern untersucht und nach dem Kitaoka-Score analysiert werden. Zusammenfassend zeigen sich, nach objektiven und subjektiven Kriterien, die besten Ergebnisse für die Indikationsstellung bei freien Gelenkkörpern, sowie primärer und sekundärer Arthrose. Komplikationen ergaben sich in 9% der untersuchten Patienten (Nervenirritation). Das arthroskopische Verfahren stellt nach unseren Untersuchungsergebnissen ein schonendes und komplikationsarmes Verfahren dar, welches besonders bei der Indikationsstellung freier Gelenkkörper und Arthrose einen hohen Stellenwert hat.
Das orale Plattenepithelkarzinom (OSCC) ist eine Krebserkrankung des Menschen mit insgesamt schlechter Prognose. Die häufigsten Risikofaktoren für das Entstehen eines OSCCs sind dabei Alkohol- und Nikotinabusus. Die Vorstellung der Patient*innen erfolgt häufig erst in fortgeschrittenen Stadien, was lokale Destruktionen wie die Infiltration von Kieferknochen (kAD) bedingt. Für die Festlegung des Tumorausmaßes und der Operationsplanung kommt daher der Detektion solch einer kAD eine besondere Bedeutung im Rahmen der Staginguntersuchungen beim OSCC zu. Die Güte der Computertomographie (CT) und Magnetresonanztomographie (MRT) bezüglich der Detektion einer kAD sind gut untersucht. Anders sieht es bei der Digitalen Volumentomographie (CBCT) aus. Sie scheint aufgrund des hohen Auflösungsvermögens prima vista gut geeignet für die Detektion einer kAD beim OSCC zu sein, bisher fehlen jedoch Studien, die den Nutzen der CBCT bei der Detektion einer kAD belegen. Es ist daher Ziel vorliegender Arbeit, zu zeigen, dass die CBCT der CT und MRT bei der Detektion einer kAD nicht unterlegen ist. Im Rahmen vorliegender Arbeit wurden daher die CBCT-, CT- und MRT-Aufnahmen von 153 Patient*innen, die an einem OSCC erkrankt sind, mit einem 3-Punkte System (0 = keine kAD, 1 = knöcherne Arrosion und 2 = knöcherne Destruktion) nachuntersucht. Zur Überprüfung der bildgebenden Verfahren wurde die histologische Untersuchung als Goldstandard oder ein Follow-Up über mindestens sechs Monate herangezogen. Das Ergebnis ergab für die CBCT eine Sensitivität von 95,6 %, eine Spezifität von 87,0 % und eine Accuracy von 89,5 %. Für die CT lagen diese Werte bei 84,4 %, 91,7 % und 89,0 % und für die MRT bei 88,9 %, 91,7 % und 90,8 %. Es konnte damit gezeigt werden, dass alle drei bildgebenden Verfahren mit hoher Sensitivität und Spezifität eine kAD detektieren können. Kein Verfahren war einem anderen über- oder unterlegen. Die Haupthypothese vorliegender Arbeit, dass die CBCT weder der CT noch der MRT bei der Detektion einer kAD unterlegen ist, wurde bestätigt und angenommen. Die Daten sprechen weiter dafür, dass die CBCT routinemäßig zur Detektion einer kAD herangezogen werden kann. Dies ist besonders zu unterstützen, da die CBCT frühzeitig, im besten Fall bei Erstvorstellung der Patient*innen, durchgeführt werden und Aufschluss über das operative Ausmaß geben kann.
Das Pankreaskarzinom stellt mit seiner schlechten Prognose und der Schwierigkeit, es in frühem Stadium zu erkennen, eine große Herausforderung für die Medizin dar. Es gibt zahlreiche diagnostische Möglichkeiten für die Detektion und das Staging dieses Malignoms. Hierfür hat sich als Mittel der ersten Wahl in den letzten Jahren die MD-Computertomographie bewährt. Das Ziel dieser Arbeit war es, die Treffsicherheit der Computertomographie für die Detektion als auch für die Einstufung der präoperativen Resektabilität zu bestimmen und herauszufinden, wo Fehlerquellen in der Bildbefundung liegen, um diese in Zukunft verbessern bzw. vermeiden zu können. Hierfür wurden 83 Patienten mit primärem Verdacht auf ein Pankreaskarzinom in die Studie einbezogen und die präoperativ erstellen Bilder retrospektiv befundet. Dabei ergaben sich Werte für die Sensitivität der Tumordetektion von 94 % und für die Spezifität von 43,75 %. Die Sensitivität zur Einschätzung der Resektabiliät eines Pankreaskarzinoms mit Hilfe des CTs in dieser Studie beträgt 64 % und die Spezifität 97,30 %. Die Ergebnisse an der Universität Würzburg sind damit vergleichbar mit den Ergebnissen anderer Untersuchungen an anderen Zentren.
Trotz der hohen Bildqualität der Multidetektorcomputertomographie war es schwierig, eine chronische Pankreatitis von einem Karzinom zu unterscheiden. Besonders wichtig, vor allem in Zusammenarbeit mit der Visceralchirurgie, ist es, präoperativ festzulegen, ob der Tumor noch resektabel ist, um unnötig aufwändige Operationen zu vermeiden und Patienten mit resektablem Tumor die Chance auf eine potentiell kurative Therapie nicht zu verwehren. Ein in der Bildgebung primär irresektabel eingestufter Befund war mit fast 100 % auch tatsächlich irresektabel. Dagegen stellten sich 20 % der initital als resektabel eingestuften Befunde intraoperativ als irresektabel dar. Als Hauptursachen der falsch eingestuften Befunde fanden sich in dieser Studie Probleme in der Detektion eines arteriellen Gefäßbefalls, kleiner Lebermetastasen oder einer Peritonealkarzinose. Zu ähnlichen Ergebnissen kommen auch andere Autoren. Auch in Zukunft wird trotz weiterer technischer Fortschritte in der Schnittbildgebung eine sichere Unterscheidung wahrscheinlich nicht immer möglich sein. Folglich gilt es im präoperativen Staging des Pankreaskarzinoms, größtmögliche Sorgfalt walten zu lassen. Dies beinhaltet, so genau wie möglich, auf Hinweise zur Unterscheidung einer chronischen Pankreatitis, eines Karzinoms und der erwähnten Irresektabilitätskriterien zu achten. So wird im Rahmen, der durch technische Möglichkeiten gegebenen Treffsicherheit, ein Maximum an Genauigkeit sichergestellt.
Ziel dieser Studie war die Beurteilung der diagnostischen Wertigkeit der PDS bei endoprothetischen Wechseloperationen von Hüft- und Kniegelenk. Dabei stand im Vordergrund die vergleichende Betrachtung der Darstellung der periprothetischen Synovialitis mittels PDS, der histologischen Beurteilung entsprechend der Konsensus-Klassifikation nach Morawietz und der Hygiene. Ein weiterer Aspekt war die Prüfung der Reliabilität der neu etablierten Konsensus- Klassifikation nach Morawietz. Es wurden dazu 83 Patienten, 33 Männer und 50 Frauen, mit einem Durchschnittsalter von 70 Jahren (43 – 88 Jahre) jeweils vor endoprothetischer Revision mittels PDS untersucht sowie eine präoperative Labordiagnostik und intraoperative Probenentnahme zur Bestimmung der Hygiene und histologischen Beurteilung nach Morawietz durchgeführt. Es folgte ein Vergleich der PDS mit den Ergebnissen aus der Histologie und den intraoperativ gewonnenen Hygienebefunden. In dieser Studie zeigte sich keine signifikante Korrelation zwischen der PDS und den histologischen Ergebnissen. Auch konnte kein signifikanter Zusammenhang zwischen der PDS und Infektionen mit septischer Genese (intraoperativer Keimnachweis, erhöhte Entzündungsparameter) ermittelt werden. Somit erweist sich in dieser Studie, dass die PDS keinen geeigneten Beitrag im Verfahren zur präoperativen Diagnostik von endoprothetischen Revisionen liefert. Am höchsten fiel der positive Prädiktivwert in unserer Studie beim Vergleich von histologischen Ergebnissen und mikrobiologischen Ergebnissen aus. Eine Untersuchung zum Einsatz von kontrastmittel-verstärkter PDS in der Beurteilung von endoprothetischen Revisionen wäre sinnvoll. Nahezu identische Ergebnisse brachte der Vergleich unserer histopathologischen Daten der Konsensus-Klassifikation mit den von Morawietz et al. publizierten Daten. Diese Ergebnisse sprechen für eine gute Festlegung der Kriterien von Morawietz et al. und damit einer reliablen Methode zur histopathologischen Auswertung der Synovialmembran.
Einleitung: SSEP sind etabliert, um Patienten intraoperativ zu überwachen, wenn sie sich Operationen im zerebrovaskulären System unterziehen. Das EEG ist eine weitere Methode zur neurophysiologischen Überwachung. In dieser Studie wurde die Wertigkeit des simultanen Ableitens von SSEP und EEG Signalen untersucht. Methode: Dreizehn Patienten (7 Frauen, 6 Männer, mittleres Alter 53.5 Jahre), welche sich dem Clipping eines intrakraniellen Aneurysma unterzogen, wurden eingeschlossen. Die SSEP Latenz 1 (Lat1), Latenz 2 (Lat2) und Amplitude (Amp) wurden kontinuierlich gemessen. Verminderung der Amplitude > 50% oder Verlängerungen der Latenzen > 10% gegenüber den Ausgangswerten wurden als signifikante Ereignisse bewertet. Das EEG wurde mittels einer subduralen Grid-Elektrode gemessen. Alpha % (Al%), Alpha-Delta-Ratio (ADR) und Total Power (TP) wurden ausgewertet. Resultate: Circa 9000 Einzelwerte wurden analysiert. Statistisch signifikante Korrelationen traten zwischen Al% und Amp (K=0.5) auf. Dabei zeigten sich die Veränderungen im EEG (Al%) 6 Minuten vor Ereignissen im SSEP (Amp). Statistisch signifikante Korrelationen traten ebenfalls zwischen Al% und Amp-Ereignissen (K=-0.4) auf. In 6/7 Patienten traten die Al%-Änderungen 7 Minuten vor den Amp-Änderungen auf. Noch stärkere Beziehungen ergaben sich zwischen Lat2 und allen EEG Modalitäten, jedoch reichte die Gesamtzahl der Datenpunkte nicht aus, um statistische Signifikanzen herzuleiten. Schlussfolgerung: Dies ist die erste Beschreibung von signifikanten Beziehungen zwischen quantitativem SSEP und EEG während zerebrovaskulären Operationen. Das quantitative EEG hat das Potenzial, frühe ischämische Ereignisse eher zu detektieren als dies mit SSEP möglich ist.
Untersuchung der Genauigkeit diagnostischer Parameter beim Prostata-Karzinom anhand eines Kollektivs von über 700 Patienten, die an der Urologischen Klinik der Universität Würzburg prostatektomiert wurden. Besonderes Augenmerk wurde hierbei auf die histopathologische Beurteilung des Prostata-Stanzpräparates vor der Operation und die Histologie des Prostatektomie-Präparates gerichtet.
Die Frage nach der optimalen Diagnostik bei polytraumatisierten Patienten wird in der Literatur derzeit nicht abschließend beantwortet. Nichtsdestotrotz ist die Multislice-Computertomographie zur primären Diagnostik schwerstverletzter Patienten in regionalen sowie überregionalen Traumazentren unverzichtbar geworden.
Seit 2004 ist im Würzburger Schockraum ein Computertomograph direkt im Schockraum verfügbar und die Ganzkörper-CT als primäres diagnostisches Mittel in den Schockraumalgorithmus integriert. Ziel dieser Datenerhebung ist es deshalb, die Wertigkeit dieses Konzeptes zu überprüfen.
Zu diesem Zweck wurden retrospektiv Daten der Jahre 2005 bis einschließlich 2008 ausgewertet. Im Kollektiv enthalten sind 155 Patienten mit einem durchschnittlichen Alter von 39 Jahren und einem Männeranteil von 72,3%.
Die Abbreviated Injury Scale ergab beim Würzburger Kollektiv verglichen mit den Daten der DGU einen hohen Anteil von Patienten mit schweren Verletzungen vor allem im Bereich von Abdomen (43,2% im Vergleich zu 22,8% bei der DGU), Thorax (75,5% vs. 58,0% bei der DGU), Extremitäten (65,8% vs. 38,0% bei der DGU) und Gesicht (21,9% vs. 4,6% bei der DGU).
Beim Injury Severity Score wurde in vorliegender Datenerhebung ein Mittelwert von 37,8 Punkten berechnet, im Gegensatz zu durchschnittlich 24,5 Punkten bei den Daten der DGU. Ursache hierfür ist das Einschlusskriterium dieser Datenerhebung eines ISS ≥ 16, während bei der DGU nur 73% der Patienten eines ISS ≥ 16 hatten.
29% der Würzburger Patienten wurden entsprechend einem initialen GCS von ≤ 8 am Unfallort bewusstlos vorgefunden. Dieses Ergebnis deckt sich mit den gesamtdeutschen Daten, die im Jahresbericht 2008 der DGU veröffentlicht wurden.
Die Standardisierte Mortalitätsrate, die mit Hilfe der RISC-Prognose und der Mortalitätsrate für dieses Kollektiv ermittelt wurde, lag bei 0,66. Das bedeutet, dass deutlich weniger Patienten verstorben sind als nach RISC-Prognose erwartet. Im Vergleich zu den Angaben der DGU, die für das Jahr 2007 das bisher beste Ergebnis mit einer SMR von 0,75 im Gesamtkollektiv berechneten, ein gutes Ergebnis.
Die im direkten Vergleich höhere Letalität von 18,1% im Würzburger Kollektiv im Gegensatz zu 14% bei den gesamtdeutschen Daten der DGU lässt sich durch den deutlich höheren durchschnittlichen ISS begründen.
Insgesamt wurde in den Jahren 2005 bis 2007 am Uniklinikum Würzburg eine Zunahme der Letalität polytraumatisierter Patienten innerhalb der ersten 24 Stunden nach dem Unfall beobachtet. Zunehmend weniger Patienten verstarben dagegen während des folgenden Krankenhausaufenthaltes. Bei der Gesamtletalität konnte eine Abnahme von 20,0% im Jahr 2005 auf 14,1% im Jahr 2007 verzeichnet werden.
Die Berechnung der Diagnostikzeiten ergab eine durchschnittliche Gesamtuntersuchungsdauer von 51 Min (von der Ankunft des Patienten im Schockraum bis zum Ende der Datenrekonstruktion) und 29 Min von Beendigung des Scans bis zum Ende der Rekonstruktion. Durchschnittlich 22 Min wurden für den Zeitraum von Ankunft des Patienten bis zum Ende des Polytraumascans ermittelt, 7 Min betrug die reine Scanzeit. Die Daten decken sich mit den Berechnungen früherer Studien.
Bei 30,3% der Würzburger Patienten wurden zusätzlich konventionelle Röntgenaufnahmen im Schockraum angefertigt. Der überwiegende Anteil der Aufnahmen, das heißt 34,0%, entfielen dabei auf Röntgenbilder des Thorax. Als Erklärung werden häufig notwendige Lagekontrollen nach Installation einer Thoraxdrainage oder eines zentralen Venenkatheters angeführt.
Computertomographische Folgeuntersuchungen wurden bei insgesamt 72,9% der Patienten durchgeführt. Mit Abstand am häufigsten, in 47,6% der Fälle, wurden weitere Aufnahmen des Schädels angefertigt.
Die Kontrolle der Kurzbefunde der Ganzkörper-CT ergab bei sechs der insgesamt 155 Patienten initial nicht diagnostizierte Läsionen. Die entsprechenden Verletzungen waren bei drei Patienten auch unter Kenntnis der intraoperativen Diagnosen in der retrospektiven Analyse nicht nachvollziehbar. Bei nur einem Patienten ergab sich eine reale therapeutische Relevanz, hier wurde eine Mandibulafraktur übersehen, die später einer operativen Versorgung bedurfte.
Die Rate von initial sechs nicht entdeckten Verletzungen verdeutlicht die hohe Qualität der primären Diagnostik im Würzburger Schockraum.
Die SMR als Kriterium der Versorgungsqualität bei der Behandlung polytraumatisierter Patienten ergab einen, im gesamtdeutschen Vergleich, hohen Standard.
Zusammenfassend belegen unsere Daten den überlegenen Stellenwert eines Ganzkörper-Computertomographie-basierten Schockraumalgorithmus in der Primäversorgung polytraumatisierter Patienten am Beispiel des Würzburger Schockraums.
Zusammenfassung
Ziel:
Pathomorphologische Veränderungen der Kiefergelenke treten im Rahmen einer JIA häufig auf. In dieser Arbeit sollten anhand von einer kieferorthopädischen zweidimensionalen Röntgenbildgebung (Orthopantomographie - OPG) pathologische Veränderungen der Kiefergelenke bei JIA-Patienten differenziert und Asymmetrien des Unterkiefers in Abhängigkeit vom Grad der Kondylendestruktion bestimmt werden. Darüber hinaus sollte geprüft werden, wie sich die Krankheitsdauer auf den Befall der Kiefergelenke auswirkt.
Zusätzlich wurden zur differenziellen Analyse der Pathomorphologie die klinische Funktionsanalyse (FAL), die Joint Vibration Analysis (JVA) sowie die 3D-Stereophotogrammetrie (3d-Scan) eingesetzt. Ziel war mittels non-invasiver, kostengünstiger und schnell verfügbarer Untersuchungsmethoden eindeutige Parameter zum Befall der Kiefergelenke zu detektieren.
Patienten und Methodik:
In dieser Arbeit wurden 46 Patientin (28 weiblich; 18 männlich) kaukasischer Herkunft mit diagnostizierter JIA eingeschlossen. Die Kiefergelenke (n = 92) wurden einzeln nach dem Grad ihrer Kondylendestruktion (Grad 0 - 4 nach Billiau et. al. [78]) befundet und in eine leicht betroffene Gruppe 1 (Grad 0, 1 und 2 nach Billiau: röntgenologisch unauffällig, Kondylenerosionen, Kondylenabflachungen) und in eine schwer betroffene Gruppe 2 (Grad 3 und 4 nach Billiau: Kondylusabflachungen mit Erosionen, Komplettverlust des Kondylus) eingeteilt.
Zur Quantifizierung von Unterkieferasymmetrien wurde das Seitenverhältnis aus Kondylus-, Ramus- und Mandibulahöhe bestimmt. Der Vergleich der einzelnen klinischen, instrumentellen und bildgebenden Untersuchungsverfahren (OPG, FAL, JVA, 3d-Scan) erfolgte jeweils durch die Gegenüberstellung der schwer betroffenen und der leicht betroffenen Patientengruppe.
Ergebnisse:
Erkrankungsdauer:
Anhand des Grades der Kondylendestruktion wurden 36 Patienten in die leicht betroffene Gruppe 1 und 10 Patienten in die schwer betroffenen Gruppe 2 eingeteilt. Dabei war die Erkrankungsdauer in der schwer betroffenen Patientengruppe (8,9 ± 5,2 Jahre) signifikant länger, als in der leicht betroffenen Patientengruppe (4,6 ± 4,7; Jahre) (p = 0,031).
FAL:
Die Ergebnisse der FAL zeigten ausgeprägtere funktionelle Abweichungen in der schwer betroffenen Patientengruppe (Gruppe 2). Es wurde jedoch kein signifikanter Unterschied zur Gruppe 1 ermittelt. Die schwer betroffene Patientengruppe zeigten einen höheren Prozentsatz an von Schmerzen bei Palpation der Kiefergelenke (Gruppe 2: 70,0 % vs. Gruppe 1: 61,1 %) oder Schmerzen bei Mundöffnung (Gruppe 2: 10,0% vs. Gruppe 1: 8,3 %), Deflexionen des Unterkiefers (Gruppe 2: 50,0% vs. Gruppe 1: 33,3 %), Gelenkgeräuschen (Gruppe 2: 80,0 % vs. Gruppe 1: 63,9 %) und Mundöffnungseinschränkungen (Gruppe 2: 60,0 % vs. Gruppe 1: 25,0 %). Die durchschnittliche Mundöffnung betrug in Gruppe 2 40,6 mm, während sie in Gruppe 1 43,5 mm betrug. Bei Patienten mit einer Mundöffnung < 40 mm wurde in Gruppe 2 eine durchschnittliche Mundöffnung von 35,3 mm und in Gruppe 1 von 34,1 mm gemessen.
JVA:
Sowohl in der gelenkbezogenen, als auch in der patientengruppenbezogenen Analyse der JVA deuteten die Messparameter in der schwer betroffenen Patientengruppe vermehrt auf chronisch-degenerative oder bestehende Ergüsse im Kiefergelenk hin. In der gelenkbezogenen Auswertung zeigte sich dies insbesondere durch eine reduzierte Signalstärke in der schwer betroffenen Patientengruppe (Total power: p = 0,005; Power < 300 Hz: p = 0,006; Power > 300 Hz: 0,003;) sowie in einer signifikant erhöhten Peak Frequenz (p = 0,036).
OPG:
In der Auswertung der OPGs war die Ratio von Kondylus-, Ramus- und Mandibulahöhe in der schwer Patientengruppe (Ratio 79,6 %, 85,9 %, 86,5 %) signifikant kleiner (Kondylushöhe: p = 0,0005; Ramushöhe: p = 0,0030; Mandibulahöhe: p = 0,0002), als in der leicht betroffenen Patientengruppe (Ratio 93,8 %, Ratio 96,0 %, 95,6 %). Somit ergaben sich in der schwer betroffenen Patientengruppe signifikant stärker ausgeprägte Unterkieferasymmetrien, als in der leicht betroffenen Patientengruppe.
3d-Scan:
Im 3d-Scan kam es bei Patienten mit schwer betroffenen Kiefergelenken signifikant häufiger zu Abweichungen des Weichteilkinns von der Medianebene (Gruppe 2: 3,0 mm vs. Gruppe 1: 1,2 mm; p = 0,041) und zu Asymmetrien des Unterkiefers (Gruppe 2: 62,5 % vs. Gruppe 1: 14,8 %; p = 0,015) als bei Patienten mit leicht betroffenem Kiefergelenk.
Schlussfolgerung:
Es zeigte sich, dass mittels einfacher und schnell verfügbarer Untersuchungsmethoden wie der klinischen Funktionsanalyse, der Joint Vibration Analysis und der OPG-Aufnahme eine Pathologie im Kiefergelenk dargestellt werden kann. Die Methoden können als wichtige Referenz zur Kontrolle der Krankheitsprogression bei Patienten mit JIA dienen. Darüber hinaus ist eine Klassifikation der Kondylen in schwer und leicht betroffene Kiefergelenke mittels pathomorphologischer Analyse möglich. Dabei ist von einem direkten Zusammenhang zwischen Grad der Destruktion, Ausmaß der Unterkieferasymmetrie und Dauer der Erkrankung bei Patienten mit JIA auszugehen. Insgesamt konnte die Wertigkeit klinischer, instrumenteller und bildgebender Untersuchungsverfahren der Kiefergelenksdiagnostik bei Patienten mit juveniler idiopathischer Arthritis dargestellt werden.
Transsexualität ist gekennzeichnet durch die dauerhafte Gewissheit, in einem Körper des falschen Geschlechts geboren worden zu sein. Bei Mann-zu-Frau-Transsexualität ist die Stimme ein oft unterschätzter Bestandteil der ganzheitlichen Therapie. Kann mit konservativer Therapie kein zufriedenstellend weiblicher Stimmklang erreicht werden, ist Phonochirurgie die Methode der Wahl. In Würzburg wird hierzu die Glottoplastik nach Wendler modifiziert durch Hagen angewendet.
An der vorliegenden Studie zur Qualitätsüberprüfung des operativen Verfahrens nahmen insgesamt 21 auf diese Art operierte Patientinnen teil, von denen 18 zu einer Nachuntersuchung in Würzburg erschienen und 3 die zugsandten Fragebögen ausfüllten. Erwartet wurden eine Anhebung der mittleren Sprechstimmlage sowie eine Veränderung weiterer objektiver Stimmparameter. Mit einer angehobenen Sprechstimmlage wurde auch eine höhere Zufriedenheit der Patientinnen mit ihrer Stimme vermutet. Nach Erfahrungsberichten vieler Patientinnen blieben Probleme beim Telefonieren jedoch weiterhin bestehen. Diese für den subjektiven Therapieerfolg sehr wichtige Situation wurde mit einer Perzeptionsstudie gezielt untersucht.
Insgesamt zeigte sich die Operation als risikoarme und effektive Therapieoption, um die mittlere Sprechstimmlage anzuheben. So lag die mittlere Sprechstimmlage der Patientinnen postoperativ im Median bei 170 Hz und somit im ausschließlich weiblichen Stimmlagenbereich. Die Anhebung der mittleren Sprechstimmlage ging mit einem leichten Verlust des Dynamikumfangs einher, der jedoch nur von ca. einem Drittel der Patientinnen als störend empfunden wurde. Zur subjektiven Erfolgskontrolle wurden Daten aus den standardisierten Fragebögen „Voice Handicap Index“ sowie „Fragebogen zur Lebenszufriedenheit“ und dem eigenen „Würzburger Fragebogen“ erhoben und ausgewertet. Die Ergebnisse dieser Fragebögen zeigten, abweichend von den guten objektiven Messwerten, deutliche Einschränkungen gegenüber einer stimmgesunden Vergleichsgruppe aus der Literatur. Diese Defizite betrafen sowohl die stimmbezogenen Fragengebiete des Voice Handicap Index, als auch die allgemeine Lebenszufriedenheit. Dennoch gaben die Patientinnen an, durch die Stimmoperation ein selbstsichereres Auftreten gegenüber fremden Personen gewonnen zu haben. Die subjektive Stimmzufriedenheit korrelierte sowohl mit der mittleren Sprechstimmlage als auch mit der Selbsteinschätzung der Weiblichkeit der Stimme. Bei Frequenz- und Dynamikumfang zeigten sich starke Differenzen zwischen objektiven Messergebnissen und subjektiver Zufriedenheit.
Für die Perzeptionsstudie zur Telefonsituation wurden von 18 Patientinnen sowie jeweils im Alter gepaarten männlichen und weiblichen Kontrollsprechern identische Sprachaufnahmen angefertigt und in der Frequenz entsprechend der Übertragungs-bandbreite am Telefon bearbeitet. Diese Stimmproben wurden 50 männlichen und 50 weiblichen zufällig ausgewählten Laienjuroren zur Bewertung hinsichtlich des Sprechergeschlechts vorgespielt. Gemessen wurde neben dem Urteil männlich oder weiblich auch die Zeitspanne von Beginn der Wiedergabe bis zur Urteilseingabe. Ungefähr 40 % der transsexuellen Patientinnen wurden mehrheitlich, also in über 50 % der Urteile als weiblich bewertet. Die Urteilszeit lag für die Sprachproben der transsexuellen Patientinnen signifikant über der Urteilszeit für männliche und weibliche Kontrollsprecher. Bezogen auf die Juroren zeigten sich Unterschiede zwischen männlicher und weiblicher Jurorengruppe: Männer ordneten die Sprachproben häufiger einem weiblichen Sprecher zu. Weibliche Juroren fällten ihr Urteil hingegen signifikant schneller als männliche Juroren. Es zeigte sich eine positive Korrelation der Geschlechtszuordnung mit der mittleren Sprechstimmlage. Die unabhängig von der Sprechstimmlage deutlich verlängerte Urteilszeit für transsexuelle Sprecherinnen zeigte jedoch, dass neben der mittleren Sprechstimmlage auch noch andere Faktoren die Geschlechtszuordnung beeinflussen. Dementsprechend existierte keine klare Grenzfrequenz, oberhalb derer Stimmen regelhaft als weiblich wahrgenommen wurden. Auch in einem in der Literatur mehrfach als ausschließlich weiblich definierten Sprechbereich wurden die Stimmen einzelner Patientinnen mehrheitlich als männlich wahrgenommen. Es konnte kein Zusammenhang der Formantfrequenzen F1 – F3 mit der Geschlechtszuordnung gefunden werden.
Zusammenfassend zeigten diese aus objektiven Stimmdaten, Eigen- und Fremd-bewertung bestehenden Ergebnisse, dass durch alleinige Operation zwar eine höhere Stimmlage, jedoch kein vollständig weiblicher Stimmklang erreicht wurde. Deswegen muss die Phonochirurgie zukünftig stärker in ein umfassendes Behandlungskonzept aus logopädischem Stimmtraining, Übungen für eine weibliche Gestik und Mimik sowie Alltagstraining eingebunden werden. Hierzu wurde in dieser Arbeit ein neuer Behandlungsalgorithmus für die Univ.-HNO-Klinik Würzburg erstellt.
Ziel dieser Arbeit ist, die Wertigkeit von Entzündungsparametern (CRP, BSG, Leukozyten und Temperatur) in der postoperativen Phase anhand einer retrospektiven Studie mit 531 Patienten nach Implantation von Knie- und Hüft-Totalendoprothesen zu beurteilen. Hierbei sollten zum einen die Auswirkungen von Vorerkrankungen (Asthma bronchiale, Rheumatoider Arthritis, Nikotinabusus, Gicht/Hyperurikämie, Z. n. Thrombosen) auf den postoperativen Verlauf der Entzündungsparameter und zum anderen postoperative Komplikationen (Thrombosen, bronchopulmonale Infekte, Harnwegsinfekte, Wundinfekte, Protheseninfekte) anhand der Entzündungsparameter erfasst werden. Die Auswertung erfolgte mittels SPSS für Windows durch den Mann-Whitney Test als nicht parametrischen Test für unabhängige Variablen. Im Durchschnitt stieg der CRP-Wert von 0,6 mg/dl präoperativ auf etwa 8,5 mg/dl um den 3. postoperativen Tag an und fiel dann durchschnittlich auf 1,4 mg/dl um den 14. postoperativen Tag ab. Die BSG-Werte stiegen von etwa 18 mm/h präoperativ auf 52 mm/h um den 3. postoperativen Tag an. Der höchste BSG-Wert (56 mm/h) wurde erst um den 7. postoperativen Tag erreicht. Danach fiel der BSG-Wert leicht ab auf durchschnittlich etwa 43 mm/h um den 14. postoperativen Tag. Die Temperaturkurve verlief ähnlich: Auch hier stieg die Temperatur rasch auf einen Höchstwert von 37,1°C um den 2. postoperativen Tag. Es folgte ein langsamer Abfall der Temperatur, bis hin zu Normwerten ab dem 10. postoperativen Tag. Die Leukozyten zeigten im Durchschnitt einen geradlinigen Verlauf mit durchschnittlichen Werten zwischen 7 und 8 G/l, allerdings bei einer großen Standartabweichung. Patienten mit Asthma bronchiale zeigten präoperativ signifikant erhöhte BSG und Leukozytenwerte. Patienten mit Gicht/Hyperurikämie fielen durch signifikant niedrigere Temperaturwerte am 6. und 12. postoperativen Tag sowie durch Trends zu niedrigeren Werten am 10. und 16. postoperativen Tag auf. Signifikant höhere Werte fanden sich bei der CRP-AUC-Kurve vom 7.-14. postoperativen Tag. Des Weiteren fanden sich Trends zu höheren Werten am 14. postoperativen Tag bei der BSG und am 3. postoperativen Tag bei den Leukozyten. Bei Patienten mit Z.n. Thrombose zeigte sich der postoperative BSG-Verlauf vom 3.-14. Tag signifikant erniedrigt, ebenso waren die postoperativen Temperaturwerte vom 15. und 16. Tag signifikant niedriger. Der einzig signifikante Unterschied zwischen Rauchern und Nichtrauchern fand sich in der präoperativen BSG, wo Raucher signifikant niedrigere Werte hatten. Des Weiteren zeigten sich Trends zu höheren Leukozytenwerten am 3. und 7. postoperativen Tag sowie Trends zu niedrigeren Temperaturen am 1., 2., 7., 8. und 14. postoperativen Tag. Patienten mit Rheumatoider Arthritis fielen durch signifikant erhöhte präoperative CRP- und BSG-Werte auf. Zusätzlich traten Trends zu höheren Werten am 14. postoperativen Tag für CRP, BSG und Leukozyten auf. Dem Trend zur Temperaturerhöhung am 2. postoperativen Tag folgten erneute Trends am 9. und 11. postoperativen Tag sowie signifikant höhere Temperaturen am 10. und 12. postoperativen Tag. Patienten, die einen Harnwegsinfekt erlitten, hatten signifikant erhöhte Werte am 14. postoperativen Tag für CRP und BSG. Auch die CRP-AUC-Kurve zeigte diesen Verlauf signifikant. Bei Patienten, die an einem bronchopulmonalem Infekt erkrankten, war der CRP-Wert des 3. postoperativen Tages signifikant erhöht. Dies ließ sich auch in der CRP-AUC-Kurve vom 0.-3. postoperativen Tag signifikant nachweisen. Darüber hinaus lag ein Trend am 3.-7. postoperativen Tag zu höheren Werten vor. Bei Patienten mit tiefer Beinvenenthrombose fiel eine signifikante Temperaturerhöhung am 7., 8. und 11. postoperativen Tag auf, sowie ein Trend am 9., 10. und 12. postoperativen Tag. Die CRP-Werte stiegen um den 14. postoperativen Tag signifikant an. Gleiches Verhalten zeigte die CRP-AUC-Kurve vom 7.-14. postoperativen Tag. Patienten mit Wundinfektionen fielen durch Trends zu niedrigeren Temperaturwerten am 4. und 5. postoperativen Tag auf. Außerdem stieg um den 7. postoperativen Tag die BSG trendwertig an. Die Leukozyten waren präoperativ signifikant erhöht. Dagegen war bei Patienten mit TEP-Infektion der CRP-Wert um den 14. postoperativen Tag signifikant erhöht. Die Temperaturwerte des 8. postoperativen Tages zeigten einen Trend zu niedrigeren Zahlen. Die Ergebnisse entsprechen in etwa denen anderer Studien. Insgesamt lässt sich eine Tendenz ablesen: BSG und Temperatur sind vor allem bei den erwähnten Vorerkrankungen erhöht, Leukozyten spielen kaum eine Rolle und die CRP-Bestimmung findet ihren Platz hauptsächlich in der Diagnostik von Komplikationen. Außerdem wird klar, dass kein Entzündungsparameter spezifisch für eine bestimmte Vorerkrankung oder Komplikation ist. Darüber hinaus sind nicht Einzelwerte, sondern viel mehr der Verlauf der Entzündungsparameter entscheidend.
In der vorliegenden Arbeit wurde ein repräsentatives Kollektiv von 97 Schlafkrankheitspatienten aus Angola klinisch untersucht und von je 96 Patienten Blut- und Liquorproben gewonnen. Hauptfragestellungen waren, ob die PCR-Technik zur Diagnose und Stadieneinteilung der HAT beiträgt und ob sich aus dem qualitativen und quantitativen Nachweis von Immunglobulinen Zusammenhänge mit dem klinischen Bild der Krankheit herstellen lassen. Da mehrfach von Inkonsistenzen bei den Ergebnissen einer von Moser et al. (1989) als sehr sensitiv publizierten PCR berichtet wurde und die viel versprechenden Resultate der von Kabiri et al. (1999) beschriebenen PCR nicht reproduziert werden konnten, wurde eine von Matovu et al. (2001) publizierte PCR zum Nachweis von trypanosomaler DNA (TbAT1-Gen) verwendet. Je nach analysiertem Medium und verwendetem Purifikations-Kit ergaben sich analytische Nachweisgrenzen von 10 bis 10² Parasiten/10 µl PCR-Ansatz, entsprechend rechnerischer Nachweisgrenzen von ca. 5000 Trypanosomen/ml Blut und ca. 3000 Trypanosomen/ml Liquor. Von 96 Blutproben waren 20 positiv in der PCR (20,8%). Gemessen an den jeweiligen mikroskopischen Diagnostikmethoden kam dies einer Sensitivität von 31,1% und einer Spezifität von 92,3% gleich. Die Liquorproben von 55 Stadium-II-Patienten zeigten in 4 Fällen ein positives Resultat in der PCR (7,3%), entsprechend einer Sensitivität von 21,4% und einer Spezifität von 97,6%. Alle Liquorproben von Stadium-I-Patienten waren negativ in der PCR. Die Ergebnisse der Blut- und Liquorproben waren in über 99% der Fälle reproduzierbar. Es bestanden jeweils Zusammenhänge zwischen den Resultaten der PCR mit denen der herkömmlichen mikroskopischen Nachweismethoden wie LKP und Liquor-Mikroskopie. Neben der offensichtlich zu geringen analytischen Nachweisgrenze bei gleichzeitig niedriger Parasitämie der Patienten kommen auch Faktoren wie DNA-Verlust durch das benutzte DNA-Purifikationskit oder Gen-Deletionen der Trypanosomen als Ursache für die hohe Anzahl der falsch-negativen PCR Ergebnisse in Betracht. Die Resultate der hier angewendeten PCR trugen nicht zur Lösung des diagnostischen Problems der serologisch positiven, aber aparasitämen Patienten bei, lieferten jedoch Hinweise, dass die Parasitenlast im Blut bei Patienten im fortgeschrittenen Stadium höher ist als bei solchen im Anfangsstadium. Insgesamt stellt diese Methode aber keine Bereicherung in der Diagnosestellung oder der Stadieneinteilung bei der HAT dar und sollte speziellen Fragestellungen wie Melarsoprol-Resistenzbestimmungen vorbehalten werden. Der IFT wurde nach der von Wery et al. (1970) beschriebenen Methode in modifizierter Form durchgeführt. Im Serum fanden sich für spezifisches IgG hohe, für spezifisches IgM mittlere und für spezifisches IgA niedrige Titer. Die jeweiligen Titer waren in der vorliegenden Arbeit höher als in der Referenzliteratur, wahrscheinlich bedingt durch die Subjektivität der Endpunktlesung. Während insgesamt Patienten mit direktem Parasitennachweis signifikant höhere Serumspiegel an spezifischem IgM aufwiesen, konnte bei manchen Kranken trotz Trypanosomen-Präsenz kein spezifisches IgM im Serum oder Liquor nachgewiesen werden. Bei Patienten im fortgeschrittenen Stadium waren die Spiegel der einzelnen Antikörperklassen im Serum gegenüber denen von Patienten im Anfangsstadium signifikant höher. Dieses Phänomen könnte auf einer Akkumulation der spezifischen Immunglobuline gegen die ständig wechselnden Oberflächenantigene der Trypanosomen im Laufe der Krankheit beruhen. Die Höhen der jeweiligen spezifischen Antikörperspiegel im Serum standen nicht in Zusammenhang mit pathologischen Befunden bei der Untersuchung von Körpertemperatur, Blutdruck, Puls, Lymphadenopathien, Hepato- oder Splenomegalien, Bauchschmerz und Untergewicht. Das Fehlen eines Vergleichskollektives, die große Symptom-Variabilität und die Subjektivität einiger Untersuchungsmethoden erschwerten dabei allerdings die Objektivierung des klinischen Zustandes im Hinblick auf allgemeingültige Aussagen. Interessante Nebenfunde in dieser Arbeit waren die nach wie vor ungeklärt hohe Prävalenz von Untergewicht, Hinweise auf Kreislaufregulationsstörungen und der Zusammenhang des Auftretens des Winterbottom-Zeichens mit der Zugehörigkeit zum Stadium II. Im Liquor konnte nur in wenigen Fällen bei Stadium-II-Patienten spezifisches IgG nachgewiesen werden. Das Vorkommen dieses Immunglobulins stand jedoch im Zusammenhang mit pathologischen Ergebnissen der Patienten in den Stand- und Gangversuchen. Aufgrund des Vorteils der einfachen und schnellen Durchführbarkeit könnten sich diese Untersuchungen als sinnvolle Diagnostikergänzung in der Neuroinflammationsdetektion bei der HAT erweisen. Spezifisches IgM und IgA lagen im Liquor bei allen Proben unter der Testgrenze und bieten keine Anhaltspunkte für eine sinnvolle Verwendung als Diagnostik- oder Verlaufsparameter.
Die Arbeit widmet sich zunächst der geschichtlichen Entwicklung des Humankapitals aus einer Makro- und Mikroperspektive. Insbesondere der gesellschaftliche und ökonomische Wandel, die internen und externen Anreize für Unternehmen sowie die Bedürfnisse diverser Stakeholdergruppen stehen dabei im Mittelpunkt des Interesses. Im Anschluss wird die Informationseinpreisung am Kapitalmarkt untersucht. Im Speziellen steht hier der deutsche Aktienmarkt im Blickpunkt des Interesses. Folglich wird zunächst analysiert, inwieweit die Rahmenbedingungen in Deutschland eine Einpreisung öffentlicher Informationen in die Aktienkurse gewährleisten. Allein wenn dies der Fall ist, können Auskünfte der externen Berichterstattung im Preisbildungsprozess reflektiert werden. Eine häufig unterstellte Schwachstelle der externen Rechnungslegung wird in der mangelnden metrischen Bewertung und Publizität immaterieller Werte gesehen. Folglich findet eine Analyse des Status quo der gängigen Rechnungslegungssysteme am deutschen Kapitalmarkt in Bezug auf eine bilanzielle Erfassung von Humankapital statt. In Kapitel 5 werden die freiwillig publizierten Informationen über Humankapital am deutschen Kapitalmarkt in zwei Wertrelevanzstudien untersucht. Als Datenquelle wird dabei das jährliche Dokument, einschließlich diverser Sozial-, Personal- und Nachhaltigkeitsberichte, determiniert. Zur Durchführung dieser Untersuchungen wird zunächst ein dichotomer Index mit zwölf Indikatoren entwickelt. Diese Indikatoren basieren dabei nicht auf subjektiven Einschätzungen des Autors, sondern orientieren sich an den Publizitätsempfehlungen des ARBEITSKREIS IMMATERIELLE WERTE DER SCHMALENBACH GESELLSCHAFT e. V. (AKIWSG) und des DEUTSCHEN STANDARDISIERUNGSRATES (DSR) über Humankapital. In der ersten Wertrelevanzstudie wird der entwickelte Index nun als endogene Variable auf die exogene Variable Forecast-Error reggressiert. Die zweite Wertrelevanzstudie beschäftigt sich mit der Forschungsfrage, inwieweit die Publikationsqualität von Humankapital die Entscheidungsfindung der Investoren beeinflusst. Basierend auf den empirischen Ergebnissen werden die Anforderungen an eine Ausweitung der Berichterstattung über Humankapitalinformationen aus einem informationsökonomischen Kontexts diskutiert. Wegen der Informationskosten scheitern die konzeptionell-theoretischen Analysen aber dennoch. Daraus resultiert die Motivation, die relevanten Kapitalmarktakteure in einer verhaltenswissenschaftlichen Studie direkt nach ihren Informationsbedürfnissen bezüglich des Humankapitals zu befragen. Wegen der hohen Subjektivität, die der monetären Bestimmung des Humankapitalwerts inhärent ist, soll dieser Wert nicht von Unternehmensseite publiziert werden. Den Investoren sollen ausschließlich objektive Personalindikatoren zur Verfügung gestellt werden. Darauf basierend soll es ihnen möglich sein, den monetären Wert selbst zu bestimmen. In einem Überblick über die gängigen Humankapitalbewertungsverfahren soll dafür ein geeignetes Modell identifiziert bzw. sollen konzeptionelle Ideen für eine Modellneuentwicklung gewonnen werden. Die Arbeit endet mit einer formalen Herleitung eines Humankapitalbewertungsmodells, das die gesetzten Voraussetzungen kumulativ erfüllt. Dieser Ansatz realisiert eine monetäre Bewertung ausschließlich auf Basis extern verfügbarer Daten.
Die vorliegende Arbeit setzt sich zum Ziel, das Problem der sprachlichen Wertung in zeitgenössischen journalistischen Rezensionen literarischer Neuerscheinungen zu untersuchen. Im Mittelpunkt des Interesses stehen die Fragen: Nach welchen Wertkriterien wird Literatur bewertet und mit welchem Vokabular bzw. welchen Wörtern und Metaphern? Dabei soll innerhalb der Wertkriterien nicht nochmals nach Bewertungsaspekten der bewerteten Literatur, wie z.B. Aufbau, Inhalt, Darstellung, unterschieden werden. Das Textkorpus setzt sich zusammen aus 263 Rezensionen der FAZ, der SZ und der ZEIT aus dem Jahr 1988, einschließlich der Literaturbeilagen im Frühjahr, Herbst und Winter. 101 Rezensionen stammen aus der FAZ, 98 aus der SZ und 64 aus der ZEIT, darunter 95 Rezensionen zu Romanen, 117 zu Erzählungen, Kurzprosa, Novellen, Briefen, 30 zu Lyrikbänden, 14 zu Aphorismen und Fragmenten, drei zu Lyrik- bzw. Prosabänden mit Bildern, drei zu Parodien und Sprachspielereien und eine zu einem Drama.
Plasma- und Serumproben waren in früheren epidemiologischen Studien häufig das einzige biologische Material, das gesammelt und untersucht wurde. Diese Studien besitzen gerade durch ihren sehr langen Untersuchungszeitraum einen riesigen Informationsgehalt und wären ein unbezahlbarer Schatz für genetische Analysen. Oft ist aufgrund damals mangelnder Akquirierung jedoch keine genomische DNA verfügbar. Um die in Plasmaproben in geringer Menge vorkommende DNA verwenden zu können, extrahierten wir die DNA mit Hilfe von magnetischen Partikeln und setzten sie in eine Whole Genome Amplification (WGA) mittels Φ29-DNA-Polymerase ein. Wir stellten 88 Probenpärchen, bestehend aus einer WGA-Plasma-DNA und der korrespondierenden Vollblut-DNA derselben Person, zusammen und genotypisierten bei diesen neun hochpolymorphe Short Tandem Repeats (STR) und 25 SNPs. Die durchschnittliche innerhalb der Probenpaare auftretende Diskordanzrate betrug 3,8% für SNPs sowie 15,9% für STRs. Basierend auf den Ergebnissen der Hälfte der Probenpaare entwickelten wir einen Ausschlussalgorithmus und validierten diesen in der anderen Hälfte der Probenpaare. Mit diesem ist es möglich, zum Einen diejenigen Proben mit einer guten DNA-Qualität herauszufiltern, um Genotypisierungsfehler zu vermeiden, und zum Anderen jene Proben mit insuffizienter DNA-Qualität auszuschließen. Nachdem Proben, die fünf oder mehr homozygote Loci in dem 9-STR-Markerset aufwiesen, ausgeschlossen wurden, resultierte dies in einer Ausschlussrate von 22,7% und senkte die durchschnittliche Diskordanzrate auf 3,92% für STRs bzw. 0,63% für SNPs. Bei SNPs entspricht dieser Wert ungefähr der Fehlerquote, wie er auch bei Genotypisierungen mit Vollblut-DNA in vielen Laboratorien auftritt. Unsere Methode und das Ausschlusskriterium bieten damit neue Möglichkeiten, um zuverlässige DNA aus archivierten Plasmaproben wiederzugewinnen. Dieser Algorithmus ist auch besser geeignet, als nur die eingesetzte DNA-Menge in die WGA-Reaktion als Kriterium zu benützen.
Gegenstand der vorliegenden Untersuchung ist das Leben und Werk des deutschen Pharmakologen und Toxikologen Wilhelm Neumann (11. Februar 1898 - 15. April 1965). Wesentliche Erkenntnisse hierzu konnten aus Aktenbeständen des Bundesarchivs der Bundesrepublik Deutschland in Berlin-Lichterfelde, Freiburg im Breisgau, und Koblenz, des Dekanatsarchiv der Medizinischen Fakultät der Bayerischen Julius-Maximilians-Universität Würzburg, des Archivs der „Deutschen Gesellschaft für experimentelle und klinische Pharmakologie und Toxikologie“ in Mainz, des Scheringianums, dem Archiv der Schering AG in Berlin, des Staatsarchivs Würzburg und des Universitätsarchivs der Bayerischen Julius-Maximilians-Universität Würzburg gewonnen werden. Von 1919 bis 1923 studierte Wilhelm Neumann in Berlin Chemie und promovierte in der chemischen Abteilung des Preußischen Instituts für Infektionskrankheiten „Robert Koch“ zum Dr. phil. Im Jahr 1924 trat er eine Stelle als Privatassistent am Pharmakologischen Institut der Universität Würzburg unter der Leitung Ferdinand Flurys an. Parallel zu seiner Arbeit am Pharmakologischen Institut studierte er von 1929 bis 1934 an der Universität Würzburg Humanmedizin und promovierte zum Dr. med. 1937 folgte seine Habilitation und die Ernennung zum Dozenten. Weitere Stationen seiner wissenschaftlichen Laufbahn am Pharmakologischen Institut waren die Ernennungen zum planmäßigen Assistenten 1939, zum Konservator 1941 und zum außerplanmäßigen Professor 1942. Im Jahr 1937 nahm Wilhelm Neumann als Arzt der Reserve seine militärische Karriere im Sanitätsdienst der Wehrmacht auf. Während des Zweiten Weltkrieges war er als „beratender Arzt“ und als Wissenschaftler für die Wehrmacht tätig. Neumanns politischer Werdegang begann im Juli 1933 mit seinem Beitritt zur Veteranenorganisation Stahlhelm. Im Februar 1934 wurde er Mitglied der SA, und ab dem 1. Mai 1937 gehörte er der NSDAP an. Nach Ende des Zweiten Weltkrieges wurde Neumann im Zuge des Entnazifizierungsprozesses 1946 aus dem Staatsdienst entlassen. Das 1947 ergangene Spruchkammerurteil reihte ihn in die Gruppe der „Mitläufer“ ein. Infolgedessen konnte er 1948 wieder von der Universität Würzburg eingestellt werden. Im Jahr 1949 wurde er dort zum ordentlichen Professor für Pharmakologie und Toxikologie berufen. Von 1954 bis 1955 übte er das Amt des Dekans der Medizinischen Fakultät der Universität Würzburg aus. Am Pharmakologischen Institut der Universität Würzburg untersuchte Neumann zunächst die Chemie und Pharmakologie der herzwirksamen Glykoside. Ihm gelang auf diesem Gebiet die Reindarstellung eines neuen Wirkstoffs, der 1935 von der Firma Schering im Herzinsuffizienztherapeutikum Folinerin auf den Markt gebracht wurde. Auf toxikologischem Gebiet arbeitete er von 1925 bis 1945 mit Ferdinand Flury an gewerbetoxikologischen Projekten und in der chemischen Kampfstoff-Forschung. Als ordentlicher Professor widmete sich Wilhelm Neumann dann neben eigenen toxikologischen Arbeiten der Förderung der Toxikologie als Fachrichtung. Zu Beginn der 1950er Jahre befasste er sich mit tierischen Giften und erforschte die Toxikologie der Reizgase und der Luftverschmutzung. Von 1955 bis 1965 war Wilhelm Neumann Vorsitzender der DFG-Kommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe.
Im Rahmen dieser Arbeit wurden die magnetischen Eigenschaften des Halbmetalls CrO2 untersucht. CrO2 hat in den letzten Jahren erneut ein sehr starkes Interesse erfahren. Der Grund hierfür liegt darin, dass dieses Material, aufgrund seiner theoretisch vorhergesagten und inzwischen nachgewiesenen Spinpolarisation von nahezu 100 % an der Fermikante und seiner metastabilen Eigenschaften, ein stark diskutierter Kandidat für Spintronic-Anwendungen wie den Quantencomputer ist. Die Möglichkeit der Spininjektion ist für CrO2 gegeben und in der Zwischenzeit auch erfolgreich umgesetzt worden. Die Untersuchungen zielten auf eine Erklärung für die intrinsischen Eigenschaften wie magnetokristalline Anisotropie, magnetischer Dipolterm und dem eigentlich gequenchten Bahnmoment. Die Untersuchungen fanden an den Cr L2,3 und an der O K Kante statt. Insbesondere für die Auswertung an den Cr L2,3-Kanten war es notwendig, mit einer neuartigen Auswertemethodik sämtliche aufgenommenen Daten zu analysieren, da eine herkömmliche Summenregelauswertung leider nicht durchgeführt werden konnte. Der Grund hierfür lag in der zu geringen L2,3-Aufspaltung des leichten 3d-Übergangmetalls Cr. Mit Hilfe der so genannten Momentenanalyse war es nun möglich, die überlappenden Strukturen voneinander zu separieren, und darüber hinaus auch verschiedene Anteile der Bandstruktur verschiedenen spektralen Beiträgen zuzuordnen. Die Ergebnisse an CrO2 zeigten eine sehr starke Abhängigkeit des magnetischen Bahnmomentes, der Summe von Spin und magnetischem Dipolterm sowie der magnetokristallinen Anisotropieenergie vom Winkel zwischen den rutilen a- und c-Achsen. Noch mehr als das Gesamtbahnmoment zeigen zwei, mit Hilfe der Momentenanalyse separierbare, spektrale Beiträge starke Änderungen der einzelnen Bahnmomente. Dieses unerwartete und ausgeprägte Verhalten konnte mittels eines Vergleichs mit den Sauerstoff K-Kanten XMCD-Daten bestätigt werden, was auf eine sehr starke Hybridisierung der beiden Zustände schließen lässt. Die Trennung der stark anisotropen Summe von Spin-Moment und TZ-Term über die Summenregel für den magnetischen Dipolterm liefert eine Größenordnung des TZ-Terms, wie er bis zu diesem Zeitpunkt nicht vorgefunden wurde. Ein Vergleich der magnetokristallinen Anisotropieenergie, gewonnen durch die Messung von elementspezifischen Hysteresekurven mit Hilfe des XMCD-Effektes, mit dem Brunomodell, das eine magnetisch leichte Richtung für die Achse mit dem größten Bahnmoment vorhersagt, kommt zu keinem positiven Ergebnis. Erst die von G. van der Laan aufgezeigte Erweiterung, in der auch der TZ-Term mit aufgenommen ist, liefert für das System CrO2 ein quantitativ übereinstimmendes Ergebnis der MAE mit den gemessenen experimentellen Momenten. Erwähnenswert in diesem Zusammenhang ist die Tatsache, dass das Bahnmoment und der magnetische Dipolterm unterschiedliche leichte Richtungen bevorzugen und beide Anteile fast gleich groß sind, wobei der magnetische Dipolterm die Überhand hat. In einem zweiten Teil der Arbeit wurde nun auch eine Temperaturabhängigkeit untersucht. Ziel war es, Aussagen über die Entstehung von Bahnmomenten, Dipolterm und MAE in Abhängigkeit des vorliegenden Spinmomentes zu gewinnen und diese mit vorhandenen theoretischen Modellen zu vergleichen. Das gemessene Spinmoment wurde mit SQUID-Daten verglichen und zeigte eine qualitative Übereinstimmung. Die extrahierten Bahnmomente zeigten wie der magnetische Dipolterm ein identisches Temperaturverhalten wie das Spinmoment. Dies ist ein Beweis, dass beide Momente in einem solchen System nur durch eine Kopplung mit dem Spinmoment entstehen und durch dieses verursacht sind. Im Weiteren konnte auch eine quadratische Abhängigkeit der MAE vom Spinmoment nachgewiesen werden. Dieses von G. van der Laan und in Vorarbeiten von P. Bruno vorhergesagte Verhalten konnte erstmalig in dieser Arbeit verifiziert werden. Zusammenfassend lässt sich sagen, dass in dieser Arbeit das ungewöhnliche magnetische Verhalten, insbesondere die Winkelabhängigkeit der magnetischen Momente, durch die Kombination von XAS- und XMCD-Spektroskopie, mit der Verwendung der Momentenanalyse sowie der Untersuchung durch elementspezifische Hystereskurven, ein geschlossenes Bild des Probensystems CrO2 aufgezeigt werden konnte. Das Gesamtbild, das sich ergeben hat, zeigt ganz deutlich auf, dass eine Bandstrukturbeschreibung das gefundene Verhalten erklären kann. Die allgemein vorherrschende, und sicherlich im ersten Moment deutlich intuitivere Vorstellung, dass man im Falle von CrO2 eine Art ionische Bindung hätte, mit einer d2-Konfiguration und erwarteten 2 µB magnetischem Moment am Cr-Platz kann insbesondere die Temperaturabhängigkeit der Anisotropieenergie nicht erklären. Auch in diesem Zusammenhang liefert das Bandmodell eine sehr gute Beschreibung.
Der Unishunt der Firma Codman gilt als Niederdruck-System und führt in aufrechter Körperposition zur erheblichen Überdrainage. Das Delta-System der Firma Medtronic hingegen soll durch seinen Ventilmechanismus eine Überdrainage verhindern und den Liquordruck in einem physiologischen Rahmen halten. Die vorliegende Studie untersucht die Frage, ob das Delta-System gegenüber dem Unishunt einen Vorteil hinsichtlich der Überdrainage aufweist, der sich an der revisionsfreien Funktionsdauer zeigt. Unter Berücksichtigung der Ventrikelweite prüften wir insbesondere, ob die Überdrainage und die damit verbundenen Komplikationen verringert werden können. In einer retrospektiven Fall-Sammel-Studie wurden die Patientendaten von 199 Kindern im Alter zwischen einem Tag und 10.4 Jahren ausgewertet, die im Zeitraum vom 01.01.1985 bis 01.03.2002 in der Abteilung für pädiatrische Neurochirurgie der Universitätsklinik Würzburg eine Erstimplantation eines ventrikuloperitonealen oder -atrialen Shunts mit Verwendung eines Unishunts (n= 138) oder eines Delta-Systems (n=61) erhielten. Gewertet wurden alle mechanischen oder infektiösen Komplikationen, die zu einer operativen Shuntrevision führten. Bei den mechanischen Komplikationen unterschieden wir zwischen proximaler Obstruktion, distaler Obstruktion, Migration, Diskonnektion oder Katheterriss, Ventilunterfunktion und Überdrainage. Als Überdrainage wurden operationspflichtige Subduralergüsse, eindeutige Unterdruck-beschwerden und das Slit-Ventricle-Syndrom gewertet. Asymptomatische Subdural-ergüsse und andere nicht operationspflichtige Funktionsanomalien werteten wir nicht als Komplikation. Als Shuntinfektion bezeichneten wir klinische und laborchemische Zeichen einer bakteriellen Infektion, die nach Shuntexplantation abklangen. Die durchschnittliche Funktionsdauer der Shunts wurde in vorliegender Studie durch das Delta-System nicht verlängert. Die kumulative Revisionswahrscheinlichkeit nach einem Jahr betrug beim Unishunt 30.6 %, beim Delta-System 24.9 %, lag aber nach fünf Jahren mit 58.0 % beim Delta-System höher als beim Unishunt (40.9 %). Bei den mechanischen Komplikationen ergab sich als wesentlicher Unterschied zwischen beiden getesteten Systemen eine häufigere distale Blockade des Peritonealkatheters beim Unishunt, die aber durch häufigere Ventilfehlfunktion des Delta-Systems weitgehend ausgeglichen wurde. Die niedrigste Druckstufe führte beim Delta-System signifikant häufiger zu einer proximalen Obstruktion als die höchste. Die eigenen Untersuchungsergebnisse sprechen dafür, dass Delta-Ventile tatsächlich der Neigung zur Überdrainage entgegenwirken, ohne dass sich dieser Vorteil in der Revisionsrate bemerkbar macht. Das Delta-System führt zu einer niedrigeren Überdrainagerate und weniger Überdrainage-assoziierten Erscheinungen wie Subduralergüssen. Dieser Unterschied war am ehesten morphologisch zu erfassen, jedoch im Vergleich zum Unishunt nicht signifikant. Der Unishunt war mit einer höheren Infektionsrate von 11.6 % im Vergleich zum Delta-System (3.3 %) belastet. Der Unterschied lässt sich weder mit konstruktiven Ventilmerkmalen noch mit besonderen Maßnahmen der Infektionsprophylaxe erklären. Der im Vergleich zum Unishunt höhere Preis des Delta-Systems findet keinen Niederschlag in einer niedrigeren Komplikationsrate des Systems.
Der Unishunt der Firma Codman gilt als Niederdruck-System und führt in aufrechter Körperposition zur erheblichen Überdrainage. Das Delta-System der Firma Medtronic hingegen soll durch seinen Ventilmechanismus eine Überdrainage verhindern und den Liquordruck in einem physiologischen Rahmen halten. Die vorliegende Studie untersucht die Frage, ob das Delta-System gegenüber dem Unishunt einen Vorteil hinsichtlich der Überdrainage aufweist, der sich an der revisionsfreien Funktionsdauer zeigt. Unter Berücksichtigung der Ventrikelweite prüften wir insbesondere, ob die Überdrainage und die damit verbundenen Komplikationen verringert werden können. In einer retrospektiven Fall-Sammel-Studie wurden die Patientendaten von 199 Kindern im Alter zwischen einem Tag und 10.4 Jahren ausgewertet, die im Zeitraum vom 01.01.1985 bis 01.03.2002 in der Abteilung für pädiatrische Neurochirurgie der Universitätsklinik Würzburg eine Erstimplantation eines ventrikuloperitonealen oder -atrialen Shunts mit Verwendung eines Unishunts (n= 138) oder eines Delta-Systems (n=61) erhielten. Gewertet wurden alle mechanischen oder infektiösen Komplikationen, die zu einer operativen Shuntrevision führten. Bei den mechanischen Komplikationen unterschieden wir zwischen proximaler Obstruktion, distaler Obstruktion, Migration, Diskonnektion oder Katheterriss, Ventilunterfunktion und Überdrainage. Als Überdrainage wurden operationspflichtige Subduralergüsse, eindeutige Unterdruck-beschwerden und das Slit-Ventricle-Syndrom gewertet. Asymptomatische Subdural-ergüsse und andere nicht operationspflichtige Funktionsanomalien werteten wir nicht als Komplikation. Als Shuntinfektion bezeichneten wir klinische und laborchemische Zeichen einer bakteriellen Infektion, die nach Shuntexplantation abklangen. Die durchschnittliche Funktionsdauer der Shunts wurde in vorliegender Studie durch das Delta-System nicht verlängert. Die kumulative Revisionswahrscheinlichkeit nach einem Jahr betrug beim Unishunt 30.6 %, beim Delta-System 24.9 %, lag aber nach fünf Jahren mit 58.0 % beim Delta-System höher als beim Unishunt (40.9 %). Bei den mechanischen Komplikationen ergab sich als wesentlicher Unterschied zwischen beiden getesteten Systemen eine häufigere distale Blockade des Peritonealkatheters beim Unishunt, die aber durch häufigere Ventilfehlfunktion des Delta-Systems weitgehend ausgeglichen wurde. Die niedrigste Druckstufe führte beim Delta-System signifikant häufiger zu einer proximalen Obstruktion als die höchste. Die eigenen Untersuchungsergebnisse sprechen dafür, dass Delta-Ventile tatsächlich der Neigung zur Überdrainage entgegenwirken, ohne dass sich dieser Vorteil in der Revisionsrate bemerkbar macht. Das Delta-System führt zu einer niedrigeren Überdrainagerate und weniger Überdrainage-assoziierten Erscheinungen wie Subduralergüssen. Dieser Unterschied war am ehesten morphologisch zu erfassen, jedoch im Vergleich zum Unishunt nicht signifikant. Der Unishunt war mit einer höheren Infektionsrate von 11.6 % im Vergleich zum Delta-System (3.3 %) belastet. Der Unterschied lässt sich weder mit konstruktiven Ventilmerkmalen noch mit besonderen Maßnahmen der Infektionsprophylaxe erklären. Der im Vergleich zum Unishunt höhere Preis des Delta-Systems findet keinen Niederschlag in einer niedrigeren Komplikationsrate des Systems.
Wirkmechanismen von Hefe-Elicitoren sowie die Rolle von Jasmonaten in Pflanze-Pathogen-Interaktionen
(2007)
Die Anwendung von Hefe (Saccharomyces cerevisiae) als Elicitor wurde bisher in Zellkulturen, ebenso in Sojabohne und Gerste beschrieben. Im Rahmen der vorliegenden Arbeit wurde eine mögliche Elicitorwirkung von Hefe auf A. thaliana untersucht. Das Sprühen mit autoklavierter Bäckerhefe führte zu einem Anstieg des Phytoalexins Camalexin mit einem Maximum (54 nmol/g FG) am 5. Tag nach der Behandlung mit dem Elicitor. Bei nachfolgenden Infektionen am 5. Tag nach Hefebehandlung mit Pseudomonas syringae pv. tomato DC3000 wurde eine Schutzwirkung detektiert, die beim Wildtyp Col-0 zu einer 3 bis 4fachen Verringerung des Bakterienwachstums im Vergleich zur Wasserbehandlung führte. Die Schutzwirkung setzte mit dem 5. Tag nach Hefebehandlung ein und hielt bis einschließlich dem 11. Tag an. Ein Schutz gegen Pseudomonas syringae pv. tomato DC3000 war auch systemisch in nicht mit Hefe behandelten Blättern zu detektieren. Infektionen mit Botrytis cinerea 5 Tage nach Hefebehandlung führten beim Wildtyp Col-0 zu Nekrosengröße, die nur 17 % der Nekrosengröße der mit Wasser behandelten Kontrolle betrugen. Veränderungen in der Genexpression 48 Stunden nach Hefebehandlung wurden in einer Microarray-Analyse (in Kooperation mit der GSF Neuherberg) ermittelt. Von rund 1400 Stress-responsiven Genen konnte eine Induktion von 6 Genen nachgewiesen werden. Dabei handelte es sich um Salicylsäure-abhängige Gene (Pr1, Pr2 und Pr5), Gluthation-S-Transferasen (Gst2 und Gst11) und eine UDP Glucosyltransferase. Die Erhöhung der Gene Pr1 und Pr2 deutet auf eine Aktivierung des Salicylsäure-Weges hin. Die Induktion der anderen Gene deutet auf eine Aktivierung der Detoxifizierung hin. Gene aus dem Jasmonsäure (JA)- und Ethylen-Weg wurden nicht induziert. Reprimiert wurde das Gen Asa1, das für eine JA-induzierte Antranilatsynthase kodiert. In Northernblot-Analysen wurden Gene auch zu früheren Zeitpunkten als in der Microarray-Analyse untersucht. Für die Untersuchung, welche Signalwege für die Resistenz durch Hefebehandlung verantwortlich sind, wurden verschiedene Mutanten mit den korrespondierenden Wildtypen von Arabidopsis thaliana aus dem JA-Weg (dde2, opr3 und jin1), aus dem Salicylsäure-Weg (nahG und npr1) und aus dem Camalexin-Weg (cyp79B2/B3 und pad3) mit Pseudomonas syringae pv. tomato DC3000 oder Botrytis cinerea infiziert. Nach Infektionen mit Pseudomonas syringae pv. tomato DC3000 konnte nur in den Salicylsäure-Mutanten keine erhöhte Hefe-vermittelte Resistenz festgestellt werden. Das deutet darauf hin, dass Salicylsäure für den Schutzeffekt der Hefe gegenüber Pseudomonas syringae pv. tomato DC3000 notwendig ist. Bei den getesteten Wildtypen und den Mutanten aus dem JA- und Camalexin-Weg wurden in den mit Hefe vorbehandelten Pflanzen Schutzfaktoren gegen Pseudomonas syringae pv. tomato DC3000 zwischen 2 und 5fach nachgewiesen. Bei Infektionen mit Botrytis cinerea wurde in allen getesteten Mutanten nach Hefebehandlung eine Schutzwirkung aufgezeigt (Schutzfaktoren von 3 bis 7). Das deutet darauf hin, dass weder JA, noch Salicylsäure oder Camalexin für die Schutzwirkung gegen Botrytis cinerea verantwortlich ist. Eine direkte hemmende Wirkung der Hefe auf das Wachstum des nekrotrophen Pilzes konnte durch Wachstumsversuche auf unterschiedlichen Medien ausgeschlossen werden. In Versuchen mit den Mutanten dde2 und opr3 konnte nachgewiesen werden, dass dde2, die weder 12-Oxo-Phytodiensäure noch JA bilden kann, größere Läsionen nach Botrytis cinerea Infektionen ausbildet als der Wildtyp. Größere Läsionen zeigte auch opr3, die 12-Oxo-Phytodiensäure, aber keine JA bildet, die sich aber nicht signifikant vom Wildtyp unterschieden. Daraus lässt sich schließen, dass 12-Oxo-Phytodiensäure eine wichtige Rolle für die Abwehr gegenüber dem nekrotrophen Pilz Botrytis cinerea spielt, wobei JA vermutlich zusätzlich zur Abwehr beiträgt. Infektionen mit Pseudomonas syringae pv. tomato DC3000 führten bei beiden Mutanten zu einer geringeren Symptomausprägung als in den Wildtypen. Übereinstimmend mit den makroskopisch sichtbaren Symptomen zeigte die Mutante dde2 ein mehr als 20fach geringeres Bakterienwachstum als der Wildtyp. Dieses Ergebnis deutet darauf hin, dass sich die Anwesenheit von 12-Oxo-Phytodiensäure und JA im Wildtyp negativ auf die Abwehr gegen das biotrophe Pathogen Pseudomonas syringae pv. tomato DC3000 auswirkt. In Fusarium graminearum konnte JA nachgewiesen werden. Ob es sich bei der JA um einen Pathogenitätsfaktor des Pilzes handelt, sollte durch Mutanten mit einem Defekt im Lipoxygenasegen untersucht werden. Infektionsversuche mit Lipoxygenase-Knockout-Mutanten und Stämmen mit komplementierter Lipoxygenase-Expression zeigten keine Unterschiede in der Symptomausprägung an Blüten und jungen Schoten von Arabidopsis thaliana im Vergleich zum Wildtyp-Pilz. Dieses Ergebnis deutet darauf hin, dass die Lipoxygenase in Fusarium graminearum keine Rolle in der Pathogenität gegenüber Arabidopsis thaliana spielt.
2,3-Dipalmitoyl-S-Glycerylcystein (Pam2Cys), ein Toll-like-Rezeptor 2 (TLR2)-Ligand, aktiviert dendritische Zellen und erhöht die Expression von HLA-DR auf deren Zelloberfläche. Natürliche Killerzellen (NK-Zellen) können über die Ausschüttung von Zytokinen das erworbene Immunsystem stimulieren. Zudem weist die Entdeckung von HLA-DR auf NK-Zellen, besonders auf CD56bright-NK-Zellen, auf eine Verbindung zwischen angeborenem und erworbenem Immunsystem hin. Gekoppelt an ein immundominantes Peptidepitop aus dem Glykoprotein D des Herpes-Simplex-Virus (HSV) Typ 2, wurde Pam2Cys in dieser Arbeit als potentieller lipopeptidbasierter HSV-Impfstoff eingesetzt, um die Effekte dieser Vakzine auf NK-Zellen zu untersuchen. Die Einflüsse der Vakzine wurden anhand der CD69-, HLA-DR- und TLR2-Expression auf und in NK-Zellen nach Inkubation mit Pam2Cys untersucht. Die Analyse der Gesamt-NK-Zellpopulation ließ nur mit Hilfe der quantitativen Real-Time-PCR einen signifikanten Anstieg der TLR2-Expression erkennen, jedoch nicht durchflusszytometrisch. Inkubierte NK-Zellen zeigten deutlich mehr HLA-DR auf der Zelloberfläche, als unstimulierte NK-Zellen. Die Untersuchung der zwei großen NK-Zellsubpopulationen, CD56bright und CD56dim, ergab, dass stimulierte CD56bright-Zellen wesentlich mehr HLA-DR und TLR2 aufwiesen, als stimulierte CD56dim-Zellen. Die Expression des Aktivierungsmarkers CD69 stieg in der Gesamtpopulation der NK-Zellen nicht in signifikantem Maße an, zeigte jedoch eine Zunahme nach Inkubation mit den Pam2Cys-Molekülen. Die Aufnahme der Lipopeptide in NK-Zellen wurde mit der konfokalen Mikroskopie bestätigt. Diese Ergebnisse zeigen, dass die hier verwendete HSV-Vakzine von NK-Zellen aufgenommen wird und sie die Ausbildung von Oberflächenrezeptoren auf diesen Zellen moduliert. Insbesondere die Expressionssteigerung von HLA-DR auf CD56bright-NK-Zellen deutet auf die Fähigkeit dieser Zellen hin, Antigene zu präsentieren und stellt einen weiteren Mechanismus vor, der eine impfstoffbezogene Immunantwort unterstützen kann. Die vorliegende Arbeit bildet eine Basis für weiterführende Studien an NK-Zellen hinsichtlich der Antigenpräsentation im Allgemeinen und der Antigenpräsentation nach Stimulation durch eine Vakzine im Besonderen.
Die zunehmende Antibiotikaresistenz vieler Krankheitserreger ist ein weltweites Problem, welches zu einem klinischen Bedarf an neuen antimikrobiellen Substanzen führt. Sphingolipide einschließlich Ceramide stellen eine vielfältige Gruppe strukturverwandter Lipide dar und bestehen aus einem Sphingosin-Grundgerüst, welches mit einer Fettsäure verbunden ist. Sowohl das Sphingosin-Grundgerüst allein als auch Sphingolipide zeigen eine antibakterielle Wirkung gegenüber einer Vielzahl pathogener Mikroorganismen. Die Intensität der Hemmung hängt von der Sphingolipidstruktur und dem Mikroorganismus ab. Neuere Studien konnten zeigen, dass Sphingosin, Ceramide und Ceramid-Analoga in N. meningitidis aufgenommen werden und eine bakteriostatische oder bakterizide Wirkung zeigen. Jedoch ist die antibakterielle Wirkungsweise noch nicht genau bekannt. Um mehr über den Wirkmechanismus zu erfahren haben wir die ultrastrukturellen Veränderungen von N. meningitidis nach Inkubation mit azido-funktionalisierten Sphingolipiden mit elektronenmikroskopischen Verfahren (transmissionselektronenmikroskopische und rasterelektronenmikroskopische Aufnahmen) untersucht. Mittels korrelativer Licht- und Elektronenmikroskopie (CLEM) konnten wir die azido-funktionalisierten Sphingolipide nach Aufnahme in N. meningitidis lokalisieren. Zum Anfärben der funktionalisierten Sphingolipide wurde die kupferfreie Azid-Alkin-Cyccloaddition verwendet.
In den letzten Jahrzehnten griff die Staatsverschuldung in den meisten westlichen Staaten um sich wie ein wucherndes Krebsgeschwür. Die Ereignisse im Zuge der Euro-Krise haben ein Schlaglicht auf die Gefahren dieser Entwicklung geworfen. Diese Arbeit untersucht die Frage, wie sich Staatsverschuldung wirksam begrenzen lässt, wann dies nötig ist und welche Komponenten dafür berücksichtigt werden sollten. Sie betrachtet verschiedene Ansätze zur Begrenzung von Staatsverschuldung, evaluiert sie, und versucht aus ihren Stärken und Schwächen eine verbesserte Begrenzungsregel abzuleiten. Schließlich untermauert sie die gesellschaftliche Akzeptanz und Relevanz ihres Vorschlags, indem sie die Notwendigkeit und die mögliche Ausgestaltung einer Begrenzungsregel nicht nur unter Effizienzgesichtspunkten betrachtet, sondern auch eine normative Untersuchung vornimmt. Die erarbeiteten Evaluierungskriterien und Vorschläge sollen gleichermaßen mit ethischen und ökonomischen Anforderungen vereinbar sein. Es wird gezeigt, dass Staatsverschuldung aus Effizienzgründen wie auch aus ethischen Überlegungen begrenzt werden sollte. Sie zeigt, dass es ohne ein entsprechendes Reglement immer wieder zu einem staatsverschuldungsförderndem Politikversagen kommt. Andererseits teilt diese Arbeit aber nicht den weit verbreiteten Defätismus, dass der Kampf gegen die ansteigende Verschuldung aussichtslos sei. Vielmehr wird ein Vorschlag erarbeitet, wie sich dieses Politikversagen aushebeln und solide Staatsfinanzen erzwingen lassen. Neben einer Reihe kleinerer Aspekte werden folgende vier zentralen Ergebnisse erarbeitet: 1. Es wird erstmals ein umfassender Kriterienkatalog entwickelt, der alle relevanten Theoriebereiche abdeckt, die systematische Evaluierung verschiedener Budgetregeln ermöglicht und als Schema für die Entwicklung neuer Budgetregeln dienen kann. Dieser Katalog in Form einer Kriterienmatrix operationalisiert die Erkenntnisse der volkswirtschaftlichen Forschung zu Charakter, Wirkung und Ursachen von Staatsverschuldung. Erstmals werden in dieser Arbeit die unterschiedlichen Theoriestränge innerhalb eines Kriterienkataloges verknüpft. Denn nur so kann ein vollständiges Bild gezeichnet werden, nur so kann ein Prüfschema Anspruch auf Vollständigkeit erheben, und nur so können Begrenzungskonzepte entwickelt werden, die auch erfolgversprechend sind. Die hier ausgearbeitete Kriterienmatrix schließt damit gleich zwei Lücken, indem sie bisher isolierte Erkenntnisse vereint und diese gleich in ein Analyseinstrument umwandelt, das Ausgangspunkt für weitere Diskussion sein kann. 2. Literatur und politische Praxis halten eine Vielzahl von Vorschlägen zur Begrenzung von Staatsverschuldung bereit. Diese werden jedoch kaum verglichen und gegeneinander abgewogen. Dies mag auch an dem Fehlen eines geeigneten Analyseinstruments liegen. Dadurch gehen aber wertvolle Erkenntnisse verloren, die sich aus dem Abgleich von Stärken und Schwächen ergeben. Diese Arbeit nutzt den hier neu entwickelten Analyserahmen, um den Vergleich und die Evaluation verschiedener Budgetregeln vorzunehmen. Dabei werden systematisch Vor- und Nachteile der verschiedenen Konzepte herausgearbeitet. Dieser Vergleich ist nicht nur für sich genommen interessant und lange überfällig, sondern kann auch für die Weiterentwicklung der Diskussion wertvoll sein. So zeigen sich in der, alle relevanten Theorien umfassenden Kriterienmatrix, blinde Flecken, die allen Ansätzen gemein sind. 3. Ausgehend von der Kriterienmatrix und den Ergebnissen der Evaluierungen entwickelt diese Arbeit eine verbesserte Begrenzungsregel: die qualifizierte Lastenbremse. Diese basiert auf der Kriterienmatrix und den zuvor durchgeführten Evaluierungen. Dank dieser Analyse können einerseits die jeweils besten Elemente aus den bestehen Konzepten übernommen, bzw. durch Modifikationen optimiert werden, andererseits können die zuvor identifizierten Lücken durch neue Vorschläge geschlossen werden. Im Kern wird vorgeschlagen, die anderweitig eingeführten Ansätze des strukturellen Schuldenverbotes mit bestimmten Ausnahmen beizubehalten, und durch die hier neu entwickelten Konzepte der Staatsbilanz und der unabhängigen Kontrollinstanz mit Sanktionsrechten zu erweitern. Dieser Vorschlag erfüllt alle zuvor erarbeiteten Kriterien, d.h. er berücksichtig als einziger alle relevanten theoretischen Erkenntnisse zur Staatsverschuldung. Die qualifizierte Lastenbremse umfasst explizite und implizite Staatsverschuldung und begrenzt deren Anstieg nachhaltig. Dabei wahrt sie jedoch auch die nötige Flexibilität. Vor allem aber schlägt sie mehrere Sicherheitsmechanismen vor, welche die Wirksamkeit der Regel im politischen Alltag gewährleisten. So wird den Erkenntnissen der Neuen Politischen Ökonomie Rechnung getragen. 4. Schließlich bleibt diese Arbeit nicht dabei stehen, einen Vorschlag zu entwickeln, der allen ökonomischen Kriterien gerecht wird. Sie begnügt sich nicht damit, festzustellen, dass es effizient und wohlfahrtssteigernd wäre, wenn ihre Vorschläge umgesetzt würden. Sie geht einen Schritt weiter, wirft einen Blick über den Tellerrand der Volkswirtschaftslehre hinaus und fragt auch nach der Legitimität und dem ethischen Wert des Vorschlags. Dies geht von der Erkenntnis aus, dass eine solch tiefgreifende Maßnahme wie eine wirksame Schuldenbremse auch das normative Empfinden der Bürger widerspiegeln muss und dass die gesellschaftliche Relevanz und Durchsetzbarkeit einer Regel von einer Legitimität abhängt, die auf Effizienz und Ethik gleichermaßen fußt. Unbewusst wird diese Auffassung in weiten Teilen der Ökonomie geteilt, was sich daran zeigt, dass viele Arbeiten zur Staatsschuldbegrenzung auf Gerechtigkeitsaspekte und moralische Verpflichtungen Bezug nehmen. Sie kranken jedoch daran, dass ihre Annahme der ethischen Fragwürdigkeit von Staatsverschuldung unbegründet bleibt. Dadurch stehen sie auf wackeligen Füßen. Diese Lücke wird hier geschlossen. Eine Analyse auf Basis der katholischen Soziallehre belegt die Zielkongruenz von normativen und ökonomischen Anforderungen an die Fiskalpolitik. Es wird gezeigt, dass die hier vorgeschlagene Begrenzung von Staatsverschuldung nicht nur ökonomisch, sondern auch ethisch geboten ist. Unterm Strich lässt sich festhalten, dass diese Arbeit den weit verbreiteten Fatalismus im Bezug auf Politik und Staatsverschuldung nicht teilt. Ja, es stimmt, dass der politische Wettbewerb oft unerfreuliche fiskalpolitische Ergebnisse hervorbringt. Ja, es stimmt, dass die Entwicklung der Staatsfinanzen besorgniserregend ist. Ja, es besteht dringender Handlungsbedarf. Aber nein, diese Entwicklung ist nicht alternativlos. Nein, der Kampf gegen die Staatsverschuldung ist nicht aussichtslos. Und nein, die westlichen Demokratien sind nicht zwangsläufig dazu verdammt, immer weiter in die Schuldenfalle zu rutschen. Staatsverschuldung lässt sich wirksam begrenzen und es gibt Mechanismen, mit denen das Politikversagen umgangen werden kann. Das Ringen um bessere Regeln ist die Mühe wert. Für eine wirksame Begrenzung von Staatsverschuldung einzutreten ist das Gebot der ökonomischen Vernunft, wie auch ethische Verpflichtung.
Die Logik der bisher erforschten und beschriebenen Management- und Führungstheorien müssen sich im Zeitalter der Digitalisierung weiterentwickeln. Die ursprüngliche Forschungsfrage nach einer wirksamen Implementierung von strategischen Entscheidungen passt nicht mehr zur Realität von disruptiven Veränderungen in der sogenannten VUCA Welt (Volatile, uncertain, complex, ambiguous).
Die Arbeit ist mutig und wertvoll, weil sie die Lücke zwischen neuen Entwicklungen in der Praxis und fehlenden umfassenden Theoriekonzepten in den Management-, Führungs- und Organisationswissenschaften offenlegt und zu schließen hilft.
Der erste Teil der Arbeit fasst die aktuellen Erkenntnisse rund um strategische Entscheidungsfindung in Unternehmen, globale Megatrends als Rahmenbedingung und Change-Management als Umsetzungshilfe zusammen. Die Schlussfolgerung aus dieser holistischen Betrachtung ist, dass die Forschungsfrage rückwärts gerichtet die Realität des 20. Jahrhunderts adressiert und für das Zeitalter der Digitalisierung keine hilfreiche Antwort bietet.
Vielmehr geht es um die weiter entwickelte Forschungsfrage, wie anpassungsfähige Organisationen entwickelt und gepflegt werden können. Solche Organisationen überleben disruptive Veränderungen nicht nur irgendwie, sondern sind so gestaltet, dass sie diese nutzen, um immer wieder neue Antworten auf sich entwickelnde Kundenbedürfnisse und in der internen Organisation zu finden.
Diese anpassungsfähige oder adaptive Organisation hat fünf wesentliche Dimensionen, die im zentralen Teil der Arbeit beleuchtet werden. Alle Themen entwickeln sich derzeit laufend weiter, so dass es noch keine letztgültige Antwort gibt welche Methoden sich durchsetzen werden.
Im Sinne eines holistischen Transformationsmanagements gibt das letzte Kapitel Hinweise auf die Herangehensweise, um die eigene Organisation in ihrer Anpassungsfähigkeit weiter zu entwickeln.
Die gründliche Diskussion einer Fülle von konzeptionellen Ansätzen in Verbindung mit einer bemerkenswerten Erfahrung der Autorin erlaubt es, die auftretende Problemstellung profunder anzugehen als bei einer rein akademischen Herangehensweise.
Viele Tumorpatienten leiden unter Symptomen von Angst, Depressivität und Fatigue. Yoga als komplementäre und alternative Medizin ist in den letzten Jahren immer mehr in den Fokus der Forschung gerückt. Es wurden schon zahlreiche Studien durchgeführt, die kurzfristige Effekte bei Tumorpatienten zeigen konnten. Diese Ergebnisse beschränkten sich jedoch zumeist auf Brustkrebspatientinnen und konnten daher noch nicht verallgemeinert und so für ein breites klinisches Setting zugänglich gemacht werden.
Die vorliegende Dissertation untersuchte die Wirksamkeit einer Yogaintervention bei Tumorpatienten unterschiedlicher Tumorentität. Die Effekte auf die Belastun¬gen Angst, Depressivität und Fatigue wurden betrachtet. Es wurden die Hypo¬thesen formuliert, dass durch eine achtwöchige Yogaintervention die Outcomes Angst, Depressivität und Fatigue signifikant im Vergleich zur Kontrollgruppe gesenkt werden können. Außerdem wurden die Erwartungen an die Yogainter¬vention sowie ihre Bewertung erfragt.
Das Studiendesign zur Überprüfung der Hypothesen bestand aus einer rando-misiert kontrollierten Studie mit einer achtwöchigen Yogaintervention im Vergleich mit einer Wartekontrollgruppe. Die Yogasitzungen dauerten wöchent¬lich 60 Minuten und wurden in Gruppen von zehn bis zwölf Probanden unter der Leitung einer zur Yogatherapeutin ausgebildete Psychoonkologin durchgeführt. Die Yogaintervention enthielt Körper- sowie Atemübungen und Meditation. Es wurden Selbsteinschätzungsbögen zum Prä- und Postinterventionszeitpunkt verwandt. Angstsymptome wurden mit dem GAD-7-Fragebogen, Depressivität mit dem PHQ-2-Fragebogen und Fatigue mit dem EORTC-QLQ FA13-Fragebogen ermittelt. Die Kontrollgruppe erhielt eine Yogatherapie nach dem achtwöchigen Wartezeitraum.
Die Stichprobe beinhaltete gemischte Diagnosen und fast die Hälfte der Probanden wies eine andere Tumorentität als Mammakarzinom auf. 90% der Teilnehmer bildeten Frauen. In der Interventionsgruppe konnte im Vergleich zur Kontrollgruppe auf Angst ein großer signifikanter Effekt gefunden werden. Depressivität und Fatigue zeigten keinen signifikanten Effekt. Die Yogatherapie wurde, vor allem hinsichtlich Aufbau und Anleitung, überwiegend gut bewertet und die Erwartungen erfüllt. Aus den Befragungen ging hervor, dass die Teil¬nehmer subjektiv von der Yogaintervention profitierten und selbst Yoga weiter durchführen möchten sowie die Yogaintervention auch anderen Tumorpatienten weiterempfehlen würden.
Zusammenfassend kann man aus dieser Studie schließen, dass eine Yoga-intervention eine vielversprechende, supportive Therapie zu sein scheint. Eine Verallgemeinerung der Ergebnisse für ein breites klinisches Setting konnte vor allem mit dem hohen Frauenanteil und dem hohen Anteil an Brustkrebs-patientinnen nicht ohne weiteres vorgenommen werden. Es bedarf weiterer Forschung, die ihren Schwerpunkt auf größer angelegte Stichproben mit ver-schiedenen Tumorentitäten und einem ausgeglichenen Geschlechterverhältnis legt.
Zusammenfassend stellen sich die hydrophoben Nanomaterialien als die optimalen Fließregulierungsmittel dar (Ausnahme: Printex® G). Die Agglomerate des hochpotenten hydrophoben Ruß-Derivats Printex® 95 liegen von Herstellerseite bereits in genügend zerkleinerter Form vor, so daß keine weitere Zerkleinerung während des Mischvorganges erforderlich ist. Infolgedessen adsorbiert es mit höchster Geschwindigkeit an die Oberfläche der Schüttgutpartikel und übernimmt dort die Funktion von Oberflächenrauhigkeiten. In der Folge der werden die interpartikulären Haftkräfte sehr schnell minimiert. Im Gegensatz zu den hydrophilen Nanomaterialien zeigt Printex® 95 keinen ausgeprägten Wiederanstieg der Zugspannungen selbst nach sehr langen Mischzeiten von 4320 Minuten. Durch die Verwendung des hydrophoben Ruß-Derivates Printex® 95 werden Pulvermischungen erhalten, die zudem weitestgehend unempfindlich sind gegenüber Kapillarkräften bei erhöhten Umgebungsfeuchten. Das hydrophobe Printex® 95 vereint damit praktisch alle gewünschten Eigenschaften eines optimalen Fließregulierungsmittels und es kann als Modellsubstanz für die Entwicklung noch potenterer Nanomaterialien dienen. Bisher stand das nicht abschließend beurteilte cancerogene Potential dieses Stoffes einer breiten Anwendung entgegen.
Die vorliegende retrospektive Untersuchung fasst Ergebnisse bei 69 Säuglingen zusammen, die in den Jahren 2010 bis 2014 aufgrund infantiler Hämangiome mit eingetretenen oder drohenden Komplikationen am Universitätsklinikum Würzburg mit dem Betablocker Propranolol oral behandelt wurden. Ergänzend wurden von 45 der 69 Elternpaare nach Therapieende Fragebögen zur subjektiven Einschätzung der Behandlung ihrer Kinder ausgefüllt. Die Ergebnisse dieser Studie zeigen in Zusammenschau mit zahlreichen Publikationen zu diesem Thema, dass Propranolol bei proliferierenden Säuglingshämangiomen eine sichere und hocheffektive Therapie bei gleichzeitig überschaubaren und nur in Einzelfällen gravierenden Nebenwirkungen hat.
Die Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) ist eine häufige Erkran-kung bei Kindern und Jugendlichen. Vor allem bei Ausbleiben einer suffizienten Be-handlung verursacht die ADHS sehr oft vielfältige Probleme, die das Leben der Be-troffenen in Familie, Schule und Freizeit gravierend beeinträchtigen. Zahlreiche Studien beschreiben eine Dysfunktion des dopaminergen Systems als Hauptursache für das Auf-treten der Kardinalsymptome Hyperaktivität, Konzentrationsmangel und Impulsivität. Die Hauptsäule der medikamentösen Behandlung ist das zwingend per Betäubungsmit-telrezept zu verordnende Stimulanz METHYLPHENIDAT mit eigenem Nebenwir-kungsprofil und einer nicht geringen Rate an Nonrespondern.
Einzelne Literaturstellen und theoretische Vorüberlegungen lassen eine Korrektur dys-funktionaler dopaminerger Transmitterprozesse bei ADHS nicht allein durch Stimulanzi-en, sondern auch durch die Klasse der Dopamin-Agonisten denkbar erscheinen. Diese Vorüberlegungen basieren u. a. auf den Kenntnissen der Eigenschaften und des Wirkmechanismus des Dopamin-Agonisten ROPINIROL, der vielfach in der Behandlung der Parkinson-Krankheit eingesetzt wird.
Dieser Heilversuch ist die erste prospektive Untersuchung zur Sicherheit und Wirksam-keit des Dopamin-Agonisten ROPINIROL in der Behandlung von jungen männlichen ADHS-Patienten. Gleichzeitig liegt damit auch der erste Wirksamkeitsvergleich des erstmals gezielt zur ADHS-Behandlung eingesetzten Wirkstoffes ROPINIROL mit der Goldstandard-Substanz der ADHS-Medikation, nämlich METHYLPHENIDAT vor.
Insgesamt nahmen 9 Jungen mit ADHS im Alter zwischen 8 und 13 Jahren an dem Heilversuch teil, 3 dieser 9 Probanden im Rahmen eines Vortests, die übrigen 6 unter den Bedingungen des endgültigen Heilversuchs. Die Effekte der jeweils eingesetzten Substanz auf die Symptomausprägung der ADHS wurden mit Hilfe der Kurzform des Eltern-Lehrer-Fragebogens nach Conners und speziell hinsichtlich der ADHS-relevanten Verhaltensparameter Konzentrationsfähigkeit und Impulskontrolle durch den computer-gestützten Continuous Performance Test, CPT, erhoben.
Im Bild der angewandten computergestützten Konzentrations- und Impulskontroll-belastungstests (CPT) ergab sich bei 2 der 6 Probanden des Hauptheilversuches unter ROPINIROL eine sehr deutliche Verbesserung der Konzentration (Steigerung der rich-tigen Tastendrücke um 30% bzw. 70%). In der Betrachtung der gesamten Probanden-gruppe war der die Konzentration fördernde Effekt von ROPINIROL aber unspezifisch (p=0,463) und blieb weit hinter dem statistisch signifikanten konzentrationsfördernden Effekt von METHYLPHENIDAT auf die Probandengruppe (p=0,021) zurück.
5 von 6 Probanden handelten unter ROPINIROL weniger impulsiv und reduzierten die Anzahl falscher Tastendrücke im CPT gering bis deutlich. 3 dieser 5 Probanden verrin-gerten diese Fehlerzahl unter ROPINIROL um mindestens 40% der Ausgangsfehlerzahl ohne Medikation.
Anders als beim Verhaltensparameter Konzentration ließ sich hinsichtlich der Impuls-kontrolle kein Nachteil der Medikation mit ROPINIROL gegenüber METHYLPHENI-DAT errechnen.
Auch in der Auswertung der Kurzform des Eltern-Lehrer-Fragebogens nach Conners war ROPINIROL METHYLPHENIDAT rechnerisch nicht signifikant unterlegen. We-gen der kleinen Probandengruppe in Verbindung mit der deutlichen Streubreite der Er-gebnisse zur Impulsivität und innerhalb der Conners-Skalen kann dies aber bestenfalls als Hinweis, nicht aber als rechnerisch bewiesene Ähnlichkeit der Wirkstärke beider Substanzen in der Verbesserung vor allem der Impulskontrolle interpretiert werden.
6 von 9 Probanden beschrieben unter Ropinirol spürbare Tagesmüdigkeit. Diese war unter den höheren Dosen Ropinirol des Vortestes (max. 2mg ROP/die) besonders häufig und stark (3 von 3 Probanden). Unter der reduzierten Enddosis von maximal 1mg ROP/die im Haupttest lag die Häufigkeit der Tagesmüdigkeit bei 4 von 6 Probanden und wurde weniger stark erlebt. Dies weist auf eine Dosisabhängigkeit dieser im Heil-versuch am häufigsten registrierten unerwünschten Wirkung von Ropinirol hin. Impera-tive Schlafattacken blieben vollständig aus.
Der Beweis für das Potential des Dopamin-Agonisten ROPINIROL, die Symptome einer ADHS in ähnlichem Ausmaß wie das Stimulanz METHYLPHENIDAT zu verrin-gern oder zumindest statistisch fassbar zu reduzieren, konnte in der Gesamtwürdigung der Ergebnisse dieses Heilversuchs nicht erbracht werden. Es ergaben sich aber einzelne Hinweise auf eine Teilwirksamkeit von ROPINIROL gegen ADHS-Symptome bei einzelnen Probanden, vor allem für den Symptombereich der Impulsivi-tät. Hinweise auf ein Nebenwirkungsprofil, das jede zukünftige Anwendung von ROPINIROL bei ADHS-Erkrankten ausschließt, wurden nicht festgestellt.
Die mit Hilfe dieses pilotstudienartigen Heilversuchs gewonnenen Erkenntnisse könnten durch breiter angelegte Studien z. B. im Design einer randomisierten doppelblinden Wirksamkeitsvergleichsstudie überprüft und weiterentwickelt werden, um die mögliche Eignung von Dopamin-Agonisten wie Ropinirol als medikamentöse Alternative für be-stimmte Subpopulationen von ADHS-Betroffenen besser beurteilen zu können.
Cyclophosphamid (Endoxan) ist ein zytostatisches Medikament, welches wegen seiner immunsuppressiven Wirkung eine breite Anwendung in der Therapie systemischer Autoimmunerkrankungen findet. Es wird als Medikation bei schwerer chronisch-progressiver Multipler Sklerose empfohlen, um die weitere Progredienz einzuschränken oder zu verhindern. Bisherige klinische Studien über den Wert dieses therapeutischen Einsatzes liefern aber kontroverse Ergebnisse. Aus diesem Grund erschien es sinnvoll, die über einen längeren Zeitraum an der Neurologischen Universitätsklinik Würzburg mit der Cyclophosphamid-Therapie bei MS-Patienten gesammelten Erfahrungen in einer retrospektiven Analyse darzustellen. Patienten und Methoden: Zwischen 1983 und 2000 wurden 118 MS Patienten (75 Frauen, 43 Männer, durchschnittliches Alter zu Beginn der Therapie 46,6 ± 8,5 Jahre, durchschnittliche Krankheitsdauer zu Beginn der Therapie 9,7 ± 5,1 Jahre) mit Cyclophosphamid behandelt. 103 Patienten (87%) litten an chronisch progressiver MS (69 SPMS, 25 PPMS, 5 CP, 4 CP mit RR) und 2 an einem schubförmigen Verlauf. Bei den meisten Patienten war eine rapide Verschlechterung (Mittlerer EDSS-Wert 6,5), mit Gefahr des Gehverlustes, Grund für den Therapiebeginn. Die Induktionstherapie wurde mit 350 mg/m2 Körperoberfläche Cyclophosphamid, zumeist in Kombination mit 1000mg Methylprednisolon, über 3 - 5 Tage eingeleitet und mit 600 - 1000 mg/m2 in 4 - 12-wöchigen Abständen beibehalten. Die EDSS-Werte wurden zu Beginn, jährlich und nach Beendigung der Therapie erfasst. Der Progressions-Index wurde als Quotient aus EDSS-Wert und Krankheitsdauer definiert. Ergebnisse: 63 Patienten erhielten Cyclophosphamid länger als ein Jahr und wurden eingehender untersucht. Die vorherrschenden Gründe für einen vorzeitigen Therapieabbruch waren weitere Progression (n=18) oder nicht tolerable Nebenwirkungen (n=9). Zwei Patienten nahmen die Therapie nach einer Pause wieder auf. Die länger als ein Jahr behandelten Patienten vertrugen die Therapie gut. Nebenwirkungen wurden von 82 % berichtet, wobei die meisten als mild bezeichnet wurden (WHO Grad 1). Bei 9 % waren sie schwerwiegend (WHO Grad 2), bei weiteren 10 % führten sie zum Therapieabbruch (WHO Grad 3). Die durchschnittliche Behandlungsdauer betrug 28,8 +/- 12,3 Monate, mit einer durchschnittlichen kumulativen Dosis von 12,3 ± 7,4 g. Der durchschnittliche Nachbeobachtungszeitraum betrug 39,3 ± 28,7 Monate. Der mittlere EDSS-Wert stieg signifikant von 5,0 auf 6,25 in den zwei Jahren vor Therapiebeginn, blieb stabil während der Behandlung und stieg nach Beendigung der Therapie weiter auf 7,0. Parallel dazu war der Progressions-Index am höchsten bei Therapiebeginn mit 0,64, fiel zum Ende der Therapie auf 0,50 und sank weiter auf 0,44 während des Follow-Ups. 71% blieben stabil während der Behandlung, 13% verbesserten sich, und 16% verschlechterten sich. Schlussfolgerung: Die Daten dieser retrospektiven Analyse zeigen, dass bei Versagen der Standardtherapie einer schweren chronisch-progredienten Multiplen Sklerose Cyclophosphamid in Form einer Induktionstherapie mit Auffrischzyklen alle 4-12 Wochen im Rahmen einer Eskalationstherapie effektiv und vertretbaren NW eingesetzt werden kann.
Eine retrospektive Studie anhand von Patientenunterlagen zum Blutverlust, Transfusionshäufigkeit und postoperativen Komplikationen bei Knie-Endo-Prothesen mit systemischer Gabe von 500 mg Tranexamsäure kurz vor Eröffnung der Blutleere! 229 Patienten in der Studiengruppe, von denen 9 eine erlaubte Wiederholungsdosis erhalten hatten, wurden verglichen mit 231 Patienten, die keine Tranexamsäure erhalten hatten. 3 Patienten der Studiengruppe gegenüber 14 Patienten der Kontrollgruppe benötigten eine Bluttransfusion. In der Studiengruppe war der niedrigste postoperative Hb bei 71,2% der Patienten 10 g/dl oder höher. In der Kontrollgruppe war es nur bei 49,4% der Patienten der Fall. Durch die Gabe von Tranexamsäure konnte der durchschnittliche, berechnete Blutverlust bei Männern von etwa 1850 ml auf 1450 ml und bei Frauen von etwa 1300 ml auf etwa 1000 ml gesenkt werden. Die Unterschiede waren signifikant! Im beobachteten Kollektiv konnte keine Steigerung der Rate an Thrombosen oder thrombembolischen Ereignissen festgestellt werden. Das Antifibrinolytikum Tranexamsäure ist in dieser niedrigen Dosierung effektiv und scheint sicher zu sein.