Refine
Has Fulltext
- yes (308)
Year of publication
- 2003 (308) (remove)
Document Type
- Doctoral Thesis (292)
- Journal article (4)
- Complete part of issue (3)
- Jahresbericht (2)
- Book (2)
- Book article / Book chapter (2)
- Habilitation (1)
- Other (1)
- Review (1)
Language
- German (261)
- English (41)
- French (5)
- Multiple languages (1)
Keywords
- Würzburg (9)
- Deutschland (8)
- Molekulargenetik (7)
- Taufliege (7)
- Maus (6)
- Apoptose (5)
- Komposit (5)
- Molekularbiologie (5)
- Proteine (5)
- Butyrat (4)
Institute
- Theodor-Boveri-Institut für Biowissenschaften (32)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (14)
- Medizinische Klinik (bis 2004) (14)
- Physikalisches Institut (13)
- Institut für Organische Chemie (12)
- Institut für Humangenetik (11)
- Institut für Geschichte der Medizin (10)
- Institut für Pharmazie und Lebensmittelchemie (9)
- Julius-von-Sachs-Institut für Biowissenschaften (9)
- Institut für Virologie und Immunbiologie (8)
No abstract available.
A theory of managed floating
(2003)
After the experience with the currency crises of the 1990s, a broad consensus has emerged among economists that such shocks can only be avoided if countries that decided to maintain unrestricted capital mobility adopt either independently floating exchange rates or very hard pegs (currency boards, dollarisation). As a consequence of this view which has been enshrined in the so-called impossible trinity all intermediate currency regimes are regarded as inherently unstable. As far as the economic theory is concerned, this view has the attractive feature that it not only fits with the logic of traditional open economy macro models, but also that for both corner solutions (independently floating exchange rates with a domestically oriented interest rate policy; hard pegs with a completely exchange rate oriented monetary policy) solid theoretical frameworks have been developed. Above all the IMF statistics seem to confirm that intermediate regimes are indeed less and less fashionable by both industrial countries and emerging market economies. However, in the last few years an anomaly has been detected which seriously challenges this paradigm on exchange rate regimes. In their influential cross-country study, Calvo and Reinhart (2000) have shown that many of those countries which had declared themselves as ‘independent floaters’ in the IMF statistics were charaterised by a pronounced ‘fear of floating’ and were actually heavily reacting to exchange rate movements, either in the form of an interest rate response, or by intervening in foreign exchange markets. The present analysis can be understood as an approach to develop a theoretical framework for this managed floating behaviour that – even though it is widely used in practice – has not attracted very much attention in monetary economics. In particular we would like to fill the gap that has recently been criticised by one of the few ‘middle-ground’ economists, John Williamson, who argued that “managed floating is not a regime with well-defined rules” (Williamson, 2000, p. 47). Our approach is based on a standard open economy macro model typically employed for the analysis of monetary policy strategies. The consequences of independently floating and market determined exchange rates are evaluated in terms of a social welfare function, or, to be more precise, in terms of an intertemporal loss function containing a central bank’s final targets output and inflation. We explicitly model the source of the observable fear of floating by questioning the basic assumption underlying most open economy macro models that the foreign exchange market is an efficient asset market with rational agents. We will show that both policy reactions to the fear of floating (an interest rate response to exchange rate movements which we call indirect managed floating, and sterilised interventions in the foreign exchange markets which we call direct managed floating) can be rationalised if we allow for deviations from the assumption of perfectly functioning foreign exchange markets and if we assume a central bank that takes these deviations into account and behaves so as to reach its final targets. In such a scenario with a high degree of uncertainty about the true model determining the exchange rate, the rationale for indirect managed floating is the monetary policy maker’s quest for a robust interest rate policy rule that performs comparatively well across a range of alternative exchange rate models. We will show, however, that the strategy of indirect managed floating still bears the risk that the central bank’s final targets might be negatively affected by the unpredictability of the true exchange rate behaviour. This is where the second policy measure comes into play. The use of sterilised foreign exchange market interventions to counter movements of market determined exchange rates can be rationalised by a central bank’s effort to lower the risk of missing its final targets if it only has a single instrument at its disposal. We provide a theoretical model-based foundation of a strategy of direct managed floating in which the central bank targets, in addition to a short-term interest rate, the nominal exchange rate. In particular, we develop a rule for the instrument of intervening in the foreign exchange market that is based on the failure of foreign exchange market to guarantee a reliable relationship between the exchange rate and other fundamental variables.
The present work consists of two parts. The first one deals with theoretical questions and tests the performance of orbitals obtained from a self-interaction free KS method, the LHFapproach, in multireference ab initio methods. The purpose of this part is to enable a more efficient computation of excitation energies, which is important for the spectroscopic characterization of many organic and bioorganic molecules. The second part focuses on bioorganic questions and studies the base pairing properties of the purine base xanthine in order to explain, e.g., the unusually high stability of selfpairing xanthine alanyl-PNA double strands and the mutagenicity of xanthine formed in DNA. Part1: In contrast to HF- and standard DFT-methods, the LHF-approach leads to a fully bound virtual orbital spectrum, because Coulomb self interactions are exactly canceled in the LHFansatz. Furthermore, the energies of the occupied orbitals are not upshifted, like it is the case for standard DFT-methods, so that Koopmans' theorem remains valid. In line with this, also the occupied LHF-orbitals are somewhat more compact than standard DFT-orbitals. The present work shows that both properties are of great benefit for MR methods. The virtual LHF-orbitals are well optimized and allow an efficient description of excited states and static correlation in both MRCI- and MRPT2-approaches. Furthermore, the higher compactness of the occupied LHF- compared to standard DFT-orbitals leads to a better description of the center ion of Rydberg states. However, for each of the two advantages mentioned at least one example molecule has been found, for which LHF-orbitals actually perform worse than HF-and/or standard DFT-orbitals. This shows, that even though LHF virtual orbitals allow an excellent MRCI- and MRPT2-description for the electronically excited states of a large number of molecules, this cannot be generalized and their performance needs to be tested for each individual case. In the second part of the present work, the base pairing properties of xanthine and xanthine derivatives were studied. The purpose of this part was to find an explanation for the unexpectedly high stability of the xanthine alanyl PNA double strand. Furthermore, it was analyzed, why xanthine, that is formed from guanine in DNA under chemical stress, is able to form mismatched base pairs with the pyrimidine base thymine. Stability of xanthine alanyl PNA: In the first step, the regioisomer present in the considered alanyl PNA was identified to be the N7-regioisomer of xanthine by a theoretical analysis of the 13C-NMR spectrum. To analyze the stability of the xanthine self-pairing, a simplified model was set up, in which the stability of the PNA double strand was explained solely by the energy contributions from H-bonding and base stacking. For that purpose, the dimerization and stacking energies for the xanthine-xanthine, guaninecytosine, adenine-thymine and xanthine-2,6-diaminopurine base pairs were computed using DFT and MP2 methods. Solvent effects were taken into account by the conductor like screening model. The influence of the peptide backbone on the stacking geometry was considered by force field optimizations. While the individual contributions from hydrogen bonding and stacking do not correlate with the melting temperature Tm, the sum of both correlates linearly with Tm. This correlation is somewhat surprising, because this means that the effects of the entropy and the molecular water environment either cancel or are similar for all systems compared. In this model, the stability of the xanthine selfpairing mainly stems from an enlarged stacking interaction, while the H-bonds give only minor contributions to the stability of the xanthine selfpaired double strand of alanyl-PNA. Base pairing properties of N9-Xanthine: The computation of the base pairing properties of N9-xanthine revealed a strong variation in the individual H-bond strengths for the selfpairing of xanthine, that range from -4 to -11 kcal/mol in the gas phase and -2.5 to -5 kcal/mol in polar solvent. By comparison with model systems it was shown that the strong variance of the H-bond strength is mainly due to attractive or repulsive secondary electrostatic interactions. For the homodimer of hypoxanthine it was shown that the increase of aromaticity in the pyrimidine ring upon dimer formation leads to a strengthening of the hydrogen bonds. Mutagenicity of hypoxanthine and xanthine: Several neutral and anionic Watson-Crick base pairs of xanthine were computed with MP2- and DFT-methods in order to explain the mutagenicity of hypoxanthine and xanthine. Also basepairs involving tautomeric forms of xanthine and hypoxanthine were considered. To evaluate the dimerization energies found, the dimers were classified into pairings that have the exact geometry of the canonical base pairs and those that realize a distorted Watson-Crick pairing mode. The computations show that a stable pairing which realizes the exact geometry of a canonical Watson Crick base pairing is only possible for the pairing of xanthine to cytosine, however, the base pairs are only weakly bound. The dimerization energies of both the neutral and the anionic pairing is around 0 kcal/mol, so that the xanthine-cytosine base pairs are incorporated into DNA solely because the base pairs fulfill the geometric demands of DNA polymerase, but it does not profit from any additional stabilization due to hydrogen bonding. The bonding that in the Watson-Crick pairing mode xanthine has almost no affinity to cytosine is in correspondence with the experimental result that the cytosine-xanthine base pair is incorporated into DNA at a much lower rate than the cytosine-guanine base pair, which has a very strong hydrogen bonding. While the affinity of xanthine to cytosine is very low, the computations predict that xanthine is able to form a stable Watson-Crick pairing with thymine. However, the pairing has a somewhat distorted Watson-Crick geometry, so that its high stability is outbalanced by the worsened fit to the binding pocket of DNA-polymerase. As a consequence, the xanthinethymine pairing is incorporated into DNA not at a faster, but only at a rate comparable to that of the xanthine-cytosine pairing.
Abstimmbare Halbleiterlaser und schmalbandige Laserarrays mit verteilter lateraler Rückkopplung
(2003)
Im Rahmen dieser Arbeit wurden zwei verschiedene Typen von Halbleiterlasern mit verteilter Rückkopplung (DFB-Laser) entwickelt. Die Laser basieren auf Rippenwellenleitern und verfügen zusätzlich über ein dazu senkrecht orientiertes Metallgitter. Der evaneszente Teil der im Rippenwellenleiter geführten Lichtwelle überlappt mit dem Gitter. Durch diese periodische Variation des effektiven Brechungsindex wird die verteilte Rückkopplung gewährleistet, was eine longitudinal monomodige Laseremission zur Folge hat. Beiden Lasertypen ist gemeinsam, dass der Herstellungsprozess auf einem vom Materialsystem unabhängigen Konzept basiert. Diese Tatsache ist von besonderem Interesse, da so entsprechende Laser für unterschiedlichste Wellenlängenbereiche gefertigt werden können, ohne hierfür neue Herstellungsverfahren zu entwickeln. Den ersten Schwerpunkt der Arbeit bilden Untersuchungen zu sog. abstimmbaren Lasern, deren Emissionswellenlänge innerhalb eines relativ großen Bereichs quasikontinuierlich einstellbar ist. Der Abstimmmechanismus kann mit dem Vernier-Prinzip erklärt werden. Der Laser besteht hierbei aus zwei gekoppelten Segmenten, die jeweils über eine Reihe von Moden (Modenkamm) verfügen. Der Abstand der Moden innerhalb eines Segments ist konstant, wohingegen die Modenabstände der beiden Segmente leicht unterschiedlich sind. Die Emissionswellenlänge des Lasers ist bestimmt durch den Überlapp zweier Moden aus den beiden Segmenten, wobei die Modenkämme so ausgelegt sind, dass gleichzeitig maximal ein Modenpaar überlappt. Eine kleine relative Verschiebung der beiden Modenkämme führt zu einer vergleichsweise großen Verschiebung der Emissionswellenlänge auf Grund des veränderten Überlapps. Die Modenkämme wurden durch spezielle DFB-Gitter, sog. binary superimposed gratings (BSG), realisiert, die, anders als bei konventionellen DFB-Lasern, für mehrere Bragg-Wellenlängen konstruktive Interferenz zulassen und erstmalig bei DFB-Lasern eingesetzt wurden. BSGs zeichnen sich durch sehr gute optische Eigenschaften bei gleichzeitig einfacher Herstellung aus. Zum Abstimmen der Wellenlänge wurde der Brechungsindex des Lasers gezielt durch den Injektionsstrom bzw. die Bauteiltemperatur verändert. Im Rahmen dieser Arbeit konnten abstimmbare Laser auf unterschiedlichen Materialsystemen (InGaAs/GaAs, GaInNAs/GaAs, InGaAsP/InP) hergestellt werden. Der maximale diskrete Abstimmbereich beträgt 38 nm bzw. 8,9 THz und ist durch die Breite des Verstärkungsspektrums limitiert. Quasikontinuierlich konnte ein Abstimmbereich von 15 nm bzw. 3,9 THz erreicht werden. Die typische minimale Seitenmodenunterdrückung (SMSR) beträgt 30 bis 35 dB. Durch Hinzufügen eines dritten Segments ohne Gitter konnte die Ausgangsleistung unabhängig von der Wellenlänge konstant gehalten werden. Den zweiten Schwerpunkt der Arbeit bildet die Entwicklung von DFB-Laser-Arrays mit dem Ziel, longitudinal monomodige Laser mit hoher Ausgangsleistung zu erhalten. Die DFB-Laser-Arrays basieren auf dem oben beschriebenen Prinzip von DFB-Lasern mit lateralem Metallgitter und verfügen über mehrere Rippenwellenleiter, die im lateralen Abstand von wenigen Mikrometern angeordnet sind. Für große Abstände zwischen den einzelnen Lasern des Arrays (Elemente) emittieren diese, weitgehend unabhängig von einander, jeweils longitudinal monomodiges Licht (quasimonochromatische Emission). Die spektrale Breite beträgt hierbei typischerweise 50 bis 70 GHz. Für kleine Elementabstände koppeln die einzelnen Lichtwellen miteinander, was zu einer mit einem konventionellen DFB-Laser vergleichbaren Linienbreite führt. Während die ungekoppelten Arrays über ein gaußförmiges Fernfeld verfügen, ergibt sich für die gekoppelten Arrays ein Interferenzmuster, das stark von verschiedenen Laserparametern (wie z. B. dem Elementabstand) abhängt. Bei InGaAs/GaAs basierenden Arrays (Wellenlänge ca. 980 nm) ergibt sich für DFB-Laser-Arrays mit vier Elementen eine Ausgangsleistung von ca. 200 mW pro Facette, die durch die Wärmeabfuhr begrenzt wird. Trotz der starken thermischen Limitierung (die Laser waren nicht aufgebaut) konnte die 3,5-fache Ausgangsleistung eines Referenzlasers erzielt werden. Bei InGaSb/GaSb basierenden Arrays mit vier Elementen (Wellenlänge ca. 2,0 µm) konnte eine Ausgangsleistung von ca. 30 mW pro Facette erreicht werden, was dem 3,3-fachen eines Referenzlasers entspricht. Die Verwendung von DFB-Laser-Arrays führt folglich zu einer signifikanten Leistungssteigerung, die sich durch geeignete Maßnahmen (Facettenvergütung, Montage, Skalierung) noch weiter erhöhen ließe.
Die adjuvante Radiochemotherapie des Rektumkarzinoms im UICC-Stadium II/III wird seit 1991 vom National Cancer Institute (NCI) und in Deutschland seit 1994 als Standard empfohlen. Die Qualität und Ergebnisse der postoperativen Therapie in der täglichen klinischen Praxis wurden flächendeckend retrospektiv untersucht. Insgesamt wurden 534 Patienten aus sechs Institutionen ausgewertet, die zwischen 1993 und 1998 behandelt wurden. Die beteiligten Kliniken versorgten strahlentherapeutisch flächendeckend große Teile des nordbayerischen Raumes. Die Stadienverteilung der Patienten war: UICC I 1%, II 28%, III 69% und IV 2%. 92% erhielten eine RChT, 8% eine alleinige RT. Die mediane Nachbeobachtungszeit der Patienten betrug 40 Monate. Ergebnisse (Teil A): Nur etwa 37% der epidemiologisch erwarteten Patienten wurden entsprechend der Konsensusvereinbarung einer postoperativen Therapie zugewiesen. Nach 5 Jahren betrug die aktuarische lokale Kontrolle 75%, die Freiheit von Fernmetastasen 56%, das krankheitsfreie Überleben 53% und das Gesamtüberleben 57%. Weitere Ergebnisse siehe Teil B. Schlussfolgerung: Der niedrige Anteil von der adjuvanten Therapie zugewiesenen Patienten sowie die im Vergleich zu randomisierten Studien ungünstigeren Ergebnisse weisen auf die Auswahl eines Risikokollektivs hin. Anstelle einer stadienbezogenen Zuweisung scheint eine Auswahl mit individueller Risikoabschätzung bevorzugt zu werden. Neben Therapieverbesserungen durch randomisierte Studien sollten ebenso Anstrengungen zur Übertragung dieser Ergebnisse in die flächendeckende Praxis übernommen werden.
Die adjuvante Radiochemotherapie des Rektumkarzinoms im UICC-Stadium II/III wird seit 1991 von National Cancer Institute (NCI) und in Deutschland seit 1994 als Standard empfohlen. Die Qualität und Ergebnisse der postoperativen Therapie in der täglichen klinischen Praxis wurden flächendeckend retrospektiv untersucht. Insgesamt wurden 534 Patienten aus 6 Institutionen ausgewertet, die zwischen 1993 und 1998 behandelt wurden. Die beteiligten Kliniken versorgten strahlentherapeutisch flächendeckend große Teile des nordbayerischen Raumes. Die Stadienverteilung der Patienten war: UICC I 1%, II 28%, III 69% und IV 2%. 92% erhielten eine RChT, 8% eine alleinige RT. Die mediane Nachbeobachtungszeit der Patienten betrug 40 Monate. Ergebnisse (Teil B): Die Qualität der adjuvanten Therapie entsprach den gültigen Standards. Die lokale Kontrolle wurde in der multivariaten Analyse signifikant durch die pT- und pN-Kategorie, das Tumorgrading und eine RChT anstelle einer alleinigen RT beeinflusst. Bei 6% aller Patienten war nicht in sano, d.h. R1/R2 reseziert worden; bei 33% der pN0 kategorisierten Tumoren wurden weniger als die geforderten 12 Lymphknoten untersucht; beides führte zu einer signifikant reduzierten lokalen Kontrolle. Weitere Ergebnisse siehe Teil A. Schlussfolgerung: Der niedrige Anteil an der adjuvanten Therapie zugewiesenen Patienten sowie die im Vergleich zu randomisierten Studien ungünstigeren Ergebnisse weisen auf die Auswahl eines Risikokollektivs hin. Anstelle einer stadienbezogenen Zuweisung scheint eine Auswahl mit individueller Risikoabschätzung durch den Chirurgen bevorzugt zu werden. Neben Therapieverbesserungen durch randomisierte Studien sollten ebenso Anstrengungen zur Übertragung dieser Ergebnisse in die flächendeckende Praxis unternommen werden.
Einleitung: Im Verlauf der letzten Jahre hat sich die Messung akustisch evozierter Hirnstammpotentiale als Untersuchungsmethode in der Pädiatrie, Hals-Nasen-Ohren-Heilkunde und Neurologie etabliert. Ziel dieser Studie war es Latenzwerte der Welle I, III und V von Frühgeborenen unterschiedlicher Gestationswochen (GW) zu erfassen. Es sollte überprüft werden, ob es im Frühgeborenenalter allgemein zu einer kontinuierlichen Verkürzung der Latenzen aller drei Wellen (I, III, V) kommt oder ob Schwankungen im Verlauf bestehen, um somit bei späteren Untersuchungen Voraussagen über Latenzwerte machen zu können. Die Latenzwerte sollten sowohl in der Zeitgang-, als auch in der Standard-BERA gemessen und miteinander verglichen werden. Ebenso sollte die Abhängigkeit der Latenzen der AEHP von Risikofaktoren, hier Gentamicintherapie, im Patientenkollektiv dargestellt und die beiden verwendeten Meßmethoden miteinander verglichen werden. Methoden: Die Messung der Hirnstammpotentiale erfolgte mittels des BERAphon der Firma WESTRA, welches sich aus einem Computer und einen Kopfhörer mit drei Dauerelektroden zusammensetzt, die eine Vereinfachung der Handhabung des Gerätes erlauben. Insgesamt wurden 118 Messungen an 56 Neugeborenen, mit einem Gestationsalter von 23-40 Wochen zum Zeitpunkt der Geburt, durchgeführt. Das Alter der Patienten wurde zum Zeitpunkt der Messung auf die jeweils korrigierte Schwangerschaftswoche erhöht und lag damit zwischen der 30. und 49. Woche. Das Patientenkollektiv stammte aus der Kinderklinik der Universität Würzburg. Je nach Aufenthaltsdauer in der Klinik fanden auch longitudinale Messungen statt. Die Latenzen der Welle I, III und V wurden bei 40dB, 50dB und 60dB im Zeitgang- und Standard-Verfahren bestimmt. Gemessen wurden jeweils beide Ohren. Dabei betrug die Messdauer insgesamt 30 Minuten bis eine Stunde. Ergebnisse: Ergebnis dieser Studie war, dass es im Verlauf der Frühgeborenenperiode zu einer Latenzverkürzung kommt. Das Maximum der Latenzverkürzung konnte in dieser Studie zwischen der 31. und 34. GW beobachtet werden. Demnach scheint es insbesondere in dieser Entwicklungsperiode zu einer Reifung des auditiven Systems zu kommen. Bei Betrachtung des Einflusses von Gentamicin zeigte sich, dass die Patienten zwar anfangs höhere Latenzmaxima aufwiesen, sich jedoch im Verlauf bis zur 39. GW den Latenzwerten des Vergleichskollektives ohne Gentamicintherapie anglichen. Die Ursache hierfür scheint eine reversible Störung der Hörfunktion unter dieser Medikation zu sein. Beim Vergleich der Zeitgang- und Standard-BERA konnte beobachtet werden, dass die Standard-BERA im Allgemeinen kürzere Latenzwerte als das Zeitgangverfahren aufweist, sich die Werte beider Verfahren jedoch bei geringeren GW nahezu angleichen und bei einer Reizstärke von 40dB keines der beiden Verfahren bezüglich kürzerer Latenzen dominiert. Bei 50dB hingegen bietet das Zeitgangverfahren deutlich schlechtere Latenzen als das Standardverfahren. Es scheint demnach ein „Schwellenwert“ notwendig zu sein, um eine ausreichende Verschaltung im Hirnstamm zu erreichen. Die 40dB-Stufe ist möglicherweise als Reiz ungenügend, sodass in beiden Verfahren Latenzen mit großer Streubreite auftreten. Dies erklärt die größere Übereinstimmung beider Verfahren bei höheren Reizstufen. Bei Betrachtung der Wellen I, III und V stellte sich heraus, dass alle drei Wellen unterschiedlich gut darstellbar waren. Es zeigte sich, dass Welle I am schlechtesten, Welle V hingegen am besten im Kollektiv der Frühgeborenen darstellbar und in jedem Entwicklungsalter zu finden war. In jedem Entwicklungsalter stellten sich spezifische Latenzen dar. Wellen I und III korrelierten signifikant häufiger in beiden Verfahren bei steigendem Reizpegel miteinander und Welle V zeigte die höchste Übereinstimmung der Messwerte in beiden Verfahren. Schlussfolgerung: Frühgeborenen zeigen demnach im Verlauf ihrer Entwicklung, selbst unter Therapie mit potentiell ototoxischer Medikation, hier Gentamicin, und insbesondere zwischen der 31. und 34. GW eine Reifung des auditiven Systems, erkennbar an einer Latenzverkürzung der AEHP. Prinzipiell sollte bei allen Neugeboren vor Entlassung aus der Klinik ein Hörscreening durchgeführt werden, um eine Hörstörung möglichst früh aufzudecken. Zu empfehlen ist hierfür die Zeitgang-BERA, da sie mit wenig Zeitaufwand einen Überblick über die Hörschwelle in einem Untersuchungsgang erlaubt. Bei Kindern mit komplexeren Erkrankungen oder jüngerer GW sollte jedoch bei noch ungenügender Reife des auditiven Systems und zur weiteren Beurteilbarkeit des Hirnstammes die Standard-BERA durchgeführt werden. Risiko-Neugeborene und damit insbesondere Frühgeborene sollten jedoch zur weiteren Verlaufkontrolle einem zweiten Screening nach 3-4 Monaten unterzogen werden.
Das Gram negative Bakterium Neisseria meningitidis ist weltweit ein bedeutender Erreger der bakteriellen Meningitis. Obwohl das ausschließlich humanpathogene Bakterium in bis zu 25% der Europäischen Bevölkerung die oberen Atemwege als harmloser Kommensale besiedelt, kommt es unter bestimmten, noch nicht ganz verstandenen Bedingungen zu einer klinisch manifesten Infektion. In dieser Arbeit wurde die neue Technologie der DNA Mikroarray Technologie für die Untersuchung des Transkriptoms bei Neisseria meningitidis etabliert. Untersucht wurde die Reaktion von N. meningitidis auf einen Hitzeschock, eine plötzliche Steigerung der Temperatur. Während einer Infektion wird das Bakterium durch induziertes Fieber sehr ähnlichen Bedingungen ausgesetzt. Im Ergebnis erlaubten die RNA Expressionsanalysen nicht nur eine sichere Unterscheidung deregulierter Gene von Genen mit konstanter Expression, sondern es konnte auch das Ausmaß der Deregulation exakt bestimmt werden. Die Daten der DNA Mikroarray Experimente wurden mit der etablierten Technik der RT-PCR exakt bestätigt. Bei den Hitzeschock-Versuchen mit Neisseria meningitidis konnten zahlreiche ORFs als Hitzeschock-Gene identifiziert werden. Die Funktion dieser Gene, darunter groEL/groES und dnaJ/dnaK, war bereits bei anderen Organismen beschrieben worden, was die Qualität und Reproduzierbarkeit der Ergebnisse unterstreicht. Es konnte gezeigt werden, dass die Intensität des Hitzeschocks und damit die Deregulation der Hitzeschock-Gene mit steigender Temperatur zunimmt. Eine Erklärung für dieses interessante Ergebnis wäre, dass mit Steigerung der Temperatur der Schaden im Bakterium zunimmt und dadurch auch mehr Hitzeschock Proteine zur Reparatur benötigt werden. Daneben wurde erstmals die transkriptionelle Beeinflussung von Genen aus dem Bereich der Transformation durch einen Hitzeschock gefunden. Diese Daten konnten durch einen phänotypischen Nachweis der Verminderung der Transformationsaktivität von Meningokokken nach einem Hitzeschock bestätigt werden. Diese neue Technik wird eine der Schlüsseltechnologien für die Forschung in der postgenomischen Ära sein. Viele Fragen in dem noch lückenhaften Wissen über die Pathologie von Neisseria meningitidis sollen sich in Zukunft mit Hilfe der DNA Mikroarrays beantworten lassen.
The mammalian Vasodilator Stimulated Phosphoprotein (VASP) is a founding member of the Ena/VASP family of proteins that includes Drosophila Enabled (ena), the mammalian Ena homologue (Mena) and the Ena-VASP-like protein (Evl). VASP was initially discovered and characterized as a substrate for cGMP- and cAMP-dependent protein kinases (cGKs and cAKs). Ena/VASP proteins are involved in Actin-filament formation, plasma membrane protrusion, acceleration of Actin-based motility of Listeria and the establishment of cell-cell adhesion. Moreover, Ena/VASP proteins have been implicated as inhibitory factors in repulsive axon guidance and inhibition of plasma membrane activity and random motility in fibroblast. In order to study the physiological function of VASP, VASP-deficient mice had been generated in the laboratory by homologous recombination. VASP-/- mice showed hyperplasia of megakaryocytes in the bone marrow and spleen and a two-fold increase in thrombin- and collagen-induced platelet activation. To further investigate the cellular function of VASP, I established cardiac fibroblast cell lines derived from both wild type and VASP-/- mice. Both cell lines presented similar growth rates and normal contact dependent-growth inhibition but showed differences in morphology, migration and adhesion. Adherent VASP-/- cells, despite normal Mena and Evl expression levels, were highly spread. VASP-/- cells covered about twice the substrate surface area as wild type cells, while the cell volumes were unchanged. This shape difference suggests that VASP is involved in the regulation of spreading. Since the small GTPases Rac and Cdc 42 and their effector p21-activated kinase (Pak) are key regulators of lamellipodia formation and cell spreading, I analyzed this signalling pathway in VASP-/- cells stimulated with Platelet Derived Growth Factor-BB (PDGF-BB) or fetal calf serum. In wild type cells Rac and Pak were rapidly and transiently activated by PDGF or serum; however, in the absence of VASP both Rac and Pak activation was dramatically prolonged. The Rac/Pak pathway is known to play an essential role in cell motility. VASP deficient cells showed compromised migration and reorientation in a wound healing assay, probably due to enhanced Rac activity. The spreading phenotype, compromised migration and the effect observed on the Rac and Pak activities were reverted in VASP-/- cells stably transfected with full lenght human VASP, indicating a VASP dependent modulation of the Rac/Pak pathway and Rac/Pak regulated processes. Moreover, adhesion and detachment of VASP-deficient cells were significantly slower when compared to wild type cells. Preincubation of VASP+/+ cells with a cGMP analog accelerated adhesion. This acceleration did not take place in the VASP-/- cells, suggesting a VASP dependent effect. The second part of this work focused on VASP function in platelets. On the one hand I investigated the possibility of VASP-dependent Rac regulation in mouse platelets. Murine platelets are a good model for studying Rac regulation since they express high levels of VASP but not Mena/Evl and since VASP-deficient platelets show an increased platelet activation. Rac was activated by platelet agonists which was inhibited by preincubation with cGMP and cAMP analogs. Initial results which need to be extended showed that the cGMPcaused inhibition of Rac activation was VASP-dependent. Finally, in vivo platelet adhesion (platelet-vessel wall interactions) was studied using VASP-deficient mice. These studies demonstrated in-vivo that VASP down regulates platelet adhesion to the vascular wall under both physiological and pathophysiological conditions.
Die vorliegende Arbeit beleuchtet verschiedene Aspekte des Ladungstransports in Heterokontakten aus Normal- (N) und Supraleitern (S) im Rahmen des Bogoliubov-de Gennes-Formalismus. Dabei ist der bestimmende Prozeß die Andreev-Streuung: die Streuung von Elektronen in Löcher, bzw. umgekehrt, an räumlichen Variationen des supraleitenden Paarpotentials unter Erzeugung, bzw. Vernichtung, eines Cooperpaares und damit der Induktion eines Suprastroms. Befindet sich ein Supraleiter zwischen zwei normalleitenden Bereichen, so wandelt sich der an der einen NS-Phasengrenze durch Andreev-Streuung induzierte Suprastrom an der anderen NS-Phasengrenze wieder in einen durch Quasiteilchen getragenen Strom um. Diese Umwandlung erfolgt durch den Einfall eines Quasiteilchens, dessen Charakter dem des auf der gegenüberliegenden Seite des Supraleiters einfallenden Quasiteilchens entgegengerichtet ist, wie anhand von Wellenpaket-Rechnungen explizit gezeigt wird. Ersetzt man den Supraleiter durch einen mesoskopischen SNS-Kontakt, ist die Vielteilchen-Konfiguration in der mittleren N-Schicht phasenkohärent und daher verschieden von den unkorrelierten Quasiteilchen-Anregungen, die die verschobene Fermi-Kugel in den normalleitenden Zuleitungen bilden. Die Josephson-Ströme, die durch die Quasiteilchen in der mittleren N-Schicht getragen werden, werden unter zwei verschiedenen Modellannahmen berechnet: Im einen Fall werden nur Streuzustände als Startzustände betrachtet, im anderen, bei gleichzeitiger Berücksichtigung eines normalstreuenden Potentials, nur gebundene Zustände. Der SNS-Kontakt wird durch eine supraleitend/halbleitende Heterostruktur modelliert, deren Parameter-Werte sich an den Experimenten der Gruppe von Herbert Kroemer in Santa Barbara orientieren. Wenn die supraleitenden Bereiche ohne normalleitende Zuleitungen direkt mit einem Reservoir von Cooperpaaren verbunden sind, fallen nur Quasiteilchen in Streuzuständen aus den supraleitenden Bänken auf die NS-Phasengrenzen des Kontaktes ein. Mit den Normalleiter-Wellenfunktionen, die sich bei Anlegen einer Spannung V aus diesen Startzuständen entwickeln, wird die Josephson-Wechselstromdichte in der Mitte der N-Schicht bei der Temperatur T = 2,2 K berechnet. Die Stromdichte weist spannungsabhängige Oszillationen in der Zeit auf, deren Periode das Inverse der Josephson-Frequenz ist. Alle Stromdichten zeigen bei kleinen Spannungen einen steilen Anstieg ihres Betrages, der durch Quasiteilchen zustandekommt, die durch das elektrische Feld aus dem Kondensat kommend in den Paarpotentialtopf hineingezogen werden und dort bei kleinen Spannungen eine große Zahl von Andreev-Streuungen erfahren, wobei sie bei jedem Elektron-Loch-Zyklus die Ladung 2e durch die N-Schicht transportieren. Im zweiten betrachteten Fall wird unter Berücksichtigung von Normalstreuung der Gesamtzustand des Systems zu jedem Zeitpunkt durch eine Superposition von gebundenen Zuständen ausgedrückt. Die Energie dieser gebundenen Zustände ist abhängig von der Phasendifferenz Phi zwischen den supraleitenden Schichten. Für Werte der Phasendifferenz von ganzzahligen Vielfachen von Pi sind Zustände entgegengerichteter Impulse paarweise entartet. Das normalstreuende Potential mischt diese Zustände, hebt ihre Entartung auf und führt zu Energielücken: Es bilden sich Energiebänder im Phi-Raum, die formal den Bloch-Bändern von Kristallen im Wellenzahlraum entsprechen. Wird eine äußere Spannung angelegt, so ändert sich die Phasendifferenz gemäß der Josephson-Gleichung mit der Zeit und die Quasiteilchen oszillieren in ihren jeweiligen Phi-Bloch-Bändern: Diese Josephson-Bloch-Oszillationen ergeben den "normalen" Josephson-Wechselstrom, der zwischen positiven und negativen Werten schwingt und im zeitlichen Mittel Null ist. Zusätzlich können die Quasiteilchen durch Zener-Tunneln --- wie der analoge Prozeß in der Halbleiterphysik genannt wird --- in höhere Bänder übergehen. Während sich die Richtung der Josephson-Stromdichte zu den Zeiten minimaler Energielücke umkehrt, hat die Zener-Tunnel-Stromdichte nach einem Tunnel-Prozeß das gleiche Vorzeichen, das die Josephson-Stromdichte vor dem Tunnel-Prozeß hatte. Wenn die angelegte Spannung hinreichend groß ist und genügend Quasiteilchen in das höhere Band tunneln, überkompensiert die Zener-Tunnel-Stromdichte in der Halbperiode nach dem Tunnel-Prozeß die Josephson-Stromdichte, und die Gesamtstromdichte schwingt wieder in dieselbe Richtung wie vor dem Zener-Tunneln. Somit hat sich gewissermaßen die Periode halbiert: Die Gesamtstromdichte schwingt mit der doppelten Josephson-Frequenz. Allen untersuchten Aspekten des Ladungstransports durch Heterokontakte aus Normal- und Supraleitern ist eines gemein: Der für ihr Verständnis fundamentale Prozeß ist die Andreev-Streuung.