Refine
Has Fulltext
- yes (347) (remove)
Year of publication
- 2013 (347) (remove)
Document Type
- Doctoral Thesis (347) (remove)
Keywords
- Maus (10)
- Bor (7)
- Organischer Halbleiter (7)
- Kernspintomografie (6)
- Signaltransduktion (6)
- Chemische Synthese (5)
- Dendritische Zelle (5)
- Entzündung (5)
- Genexpression (5)
- HIV (5)
Institute
- Graduate School of Life Sciences (38)
- Theodor-Boveri-Institut für Biowissenschaften (29)
- Physikalisches Institut (23)
- Julius-von-Sachs-Institut für Biowissenschaften (18)
- Institut für Pharmazie und Lebensmittelchemie (17)
- Medizinische Klinik und Poliklinik I (17)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (16)
- Institut für Anorganische Chemie (13)
- Medizinische Fakultät (13)
- Institut für Psychologie (11)
Sonstige beteiligte Institutionen
- Orthopädische Klinik und Poliklinik der Universität Würzburg (2)
- Biomedizinische NMR Forschungs GmbH am Max-Planck-Institut fuer biophysikalische Chemie (1)
- Fraunhofer IGB Stuttgart (1)
- Fraunhofer-Institut für Silcatforschung ISC in Würzburg (1)
- IFT Institut für Therapieforschung München (1)
- Institut für Medizinische Mikrobiologie und Hygiene der Eberhard-Karls-Universität Tübingen (1)
- Institut für Neurowissenschaften der Universität Mailand (1)
- Klinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie des Leopoldina Krankenhaus Schweinfurt (1)
- König-Ludwig Haus (1)
- Ludwig-Maximilians-Universität München, Fakultät für Physik (1)
ResearcherID
- D-1250-2010 (1)
- N-7500-2014 (1)
Eine attraktive Innenstadt ist das Aushängeschild jeder Stadt, an deren Entwicklung eine Vielzahl von Akteuren beteiligt ist. Neben den Einzelhändlern und der Verwaltung wurden in den letzten Jahren auch die Immobilieneigentümer als wichtige Akteure in der Stadtentwicklung erkannt. Sie bieten mit ihren Immobilien Standorte, an denen eine Ansiedlung von Einzelhändlern erfolgen kann und beeinflussen durch die Gestaltung ihrer Immobilien sowie durch die Wahl der Mieter und Nutzungen die Attraktivität der Innenstädte. Die Untersuchungen dieser Arbeit konzentrieren sich auf die Bedeutung der Immobilieneigentümer für die Einzelhandelsentwicklung und damit für die Attraktivität der Innenstadt.
Ziel dieser Arbeit ist es, den Einfluss des Eigentümers auf die Handelsimmobilie und damit auf die Attraktivität der Innenstadt am Beispiel der Stadt Würzburg genauer zu untersuchen. Der Fokus liegt auf dem Zusammenhang von Eigenschaften, Zielen und Motiven des Immobilieneigentümers einerseits und dem Zustand der Immobilie andererseits.
Die methodische Vorgehensweise gliedert sich dementsprechend in zwei Untersuchungsansätze. Auf der einen Seite werden Informationen zu den Immobilieneigentümern durch Grundbuchauswertungen und Befragungen erhoben, um eine Typisierung vornehmen zu können. Auf der anderen Seite werden die Anforderungen von Einzelhändlern an innerstädtische Handelsimmobilien herausgearbeitet und in ein Bewertungsmodell überführt. Mit diesem werden die Immobilien im Untersuchungsgebiet hinsichtlich ihrer Eignung für den Einzelhandel bewertet. Aus der Verschneidung dieser beiden Ansätze können dann Aussagen über den Einfluss der Eigentümer auf die Handelsimmobilien und damit auch auf die Attraktivität der Innenstadt abgeleitet werden.
The parables of Jesus have undergone different transmutations in the long history of their transmission. The events surrounding his death and resurrection as well as the new situations his followers were confronted with after these events, led to the parables being given new accentuation according to the needs of the reflecting community. This is evident in Matthew's treatment of the parable trilogy of Mt 21:28-22:14. The work tries to show how Matthew has used the dominical parables and sayings found in his tradition to serve the needs of his community, especially in her struggles with the official Jewish leaders of his time. Through these parables, which he presented as a three-pronged attack against the Jewish leaders, he shows his community as the true Israel, called to produce the fruits of righteousness.
Der Einfluss des PI3-Kinase Signalwegs auf die Regulation des alternativen HIV-1 prä-mRNA Spleißens
(2013)
In der vorliegenden Arbeit wurden ausgehend von HIV-1 basierten Minigenkonstrukten und der proviralen NL4-3 DNA die Einflüsse der PI3K Signalwegmodulation auf das alternative Spleißen der HIV-1 prä-mRNA sowie auf die Virus Replikation untersucht. Mittels RT-PCR Analysen konnte gezeigt werden, dass die PI3K Inhibition im Falle der HIV-1 basierten Minigenkonstrukte in einer erhöhten Abundanz ungespleißter bzw. intronhaltiger mRNAs resultierte, während im Kontext des Virus die Induktion alternativer Tat Transkriptvarianten nachgewiesen werden konnte. Als Folge der Inhibition des PI3K Signalwegs kam es zu einem vermehrten Einschluss der HIV-1 Leader Exone2/2b und 3. Da der Einschluss dieser Exone durch die hnRNP A/B- und F/H-abhängigen Silencer Elemente ESSV und GI2-1 negativ reguliert wird, wurde vermutet, dass die PI3K Inhibition mit der Funktionalität dieser spleißregulatorischen Aktivität interferiert. Unterstützt wurde diese Hypothese durch Replikationsexperimente mit ESSV und GI2-1 Mutanten in Gegenwart und Abwesenheit des PI3K-Inhibitors. Zusätzlich wurde auch der Einfluss des Inhibitors unter Überexpressionsbedingungen von hnRNP H auf das alternative HIV-1 Spleißen analysiert. In dieser Arbeit konnte ebenfalls gezeigt werden, dass die PI3K Inhibition ein verändertes hnRNP H Spleißmuster bedingt sowie die SR-Protein Phosphorylierung und Expression beeinflusst. Des Weiteren war es im Verlauf der vorliegenden Arbeit möglich, eine Interferenz der PI3K Modulation mit der Virus Replikation nachzuweisen. Die Überexpression der aktivierten Akt-Kinase lies hier nur eine sehr geringe Virus Produktion zu während die PI3K Inhibition diese auf ca. die Hälfte reduzierte. Weiterführende Experimente zeigten, dass die Überexpression der aktivierten Akt-Kinase den nuklearen Export Rev-abhängiger HIV-1 mRNAs zu blockieren scheint. Darüber hinaus beeinflusste die PI3K Inhibition neben dem alternativen HIV-1 Spleißen auch die virale Transkription sowie die zelluläre Translation. Zusammen könnten diese Effekte die reduzierte virale Replikation erklären. Der PI3K Signalweg spielt somit eine zentrale Rolle bei dem alternativen HIV-1 Spleißen und der viralen Replikation und bietet so die Möglichkeit der Entwicklung neuer Ansätze einer antiviralen Therapie.
Renewal of fear is one form of relapse that occurs after successful therapy, resulting from an encounter with a feared object in a context different from the context of the exposure therapy. According to Bouton (1994), the return of fear, provoked by context change, indicates that the fear was not erased in the first place. More importantly, the return of fear indicates that during the exposure session a new association was learned that connected the feared object with “no fear”; yet, as Bouton further argues, this association is context dependent. Such dependence could explain effects like renewal. In a new context, the therapeutic association will not be expressed and thus will no longer inhibit the fear. The assumption that an association is context dependent has been tested and showed robust results (Balooch & Neumann, 2011; Siavash Bandarian Balooch, Neumann, & Boschen, 2012; Culver, Stoyanova, & Craske, 2011; Kim & Richardson, 2009; Neumann & Kitlertsirivatana, 2010). Research for the treatment of anxiety disorders, aiming to reduce fear and, more importantly, prevent relapse, is flourishing. There are several exposure protocols currently under investigation: multiple contexts exposure (MCE), which aims at reducing the return of fear due to renewal (e.g., Balooch & Neumann, 2011); prolonged exposure (PE), which aims at strengthening the inhibitory association during the extinction learning (e.g., Thomas, Vurbic, & Novak, 2009); and reconsolidation update (RU), which aims at “updating” the reconsolidation process by briefly exposing the CS+ before the actual extinction takes place (Schiller et al., 2010). So far, however, few clinical studies conducted on humans have investigated these novel treatment protocols, and as far as I know none has investigated the mechanisms of action behind these protocols with a human clinical sample. The present thesis has three main goals. The first is to demonstrate that exposure therapy in multiple contexts reduces the likelihood of renewal. The second is to examine the mechanisms contributing to the effect of MCE and the third is to shed light on the concept of context in the framework of the conditioning and extinction paradigm. To this end, three studies were conducted. The first study investigated the effect of MCE on renewal, the second and third studies examined working mechanisms of MCE. In the first study thirty spider-phobic participants were exposed four times to a virtual spider. The exposure trials were conducted either in one single context or in four different contexts. Finally, all participants completed both a virtual renewal test, with the virtual spider presented in a novel virtual context, and an in vivo behavioral avoidance test with a real spider. This study successfully demonstrated the efficacy of MCE on reducing renewal. Study 2 investigated the working mechanisms behind MCE by utilizing a differential conditioning paradigm and conducting the extinction in multiple contexts, targeting similar renewal attenuation as achieved in study 1. This was followed by two tests that attempted to reveal extinction-relevant associations like ones causing context inhibitory effects. This study had three main hypotheses: (1) The extinction context is associated with the exposure, and thus operates as a safety signal at some point during the extinction; it will therefore compete with the safety learning of the CS, leading to a decreased extinction effect on the CS if the extinction is conducted in only one context. (2) The elements (e.g., room color, furniture) of the extinction context are connected to the therapeutic association and therefore should serve as reminders of the extinction, causing a stronger fear inhibition when presented during a test. (3) Therapy process factors, according to emotional processing theory, determine the renewal effect (e.g., initial fear activation, and within-session and between-session activation are correlated with the strength of renewal). In this study, however, no differences between the groups at the renewal phase were observed, presumably because the extinction was too strong to enable a renewal of fear at the test phase conducted immediately following the extinction. This hence rendered the two inhibitory tests useless. Study 3 aimed at defining the concept of context in the conditioning and exposure framework. Study 3 utilized the phenomenon known as generalization decrement, whereby a conditioned response is reduced due to change in the environment. This allowed context similarity to be quantified. After an acquisition phase in one context, participants were tested in one of three contexts, two of which differed in only one dimension (configuration of objects vs. features). The third group was tested in the same context and served as control group. The goal was to show that both configuration and features play an important role in the definition of context. There was, however, no significant statistical difference between the groups at the test phases, likely because of context novelty effects (participants exposed to a new context following extinction in another context expected a second extinction phase, and thus demonstrated greater fear than expected in all three groups).
Methodik: Für diese Studie wurden 34 Patienten zu drei verschiedenen Zeitpunkten untersucht. Hierbei wurden die EEG-Potentiale während einer CPT-OX-Testung abgeleitet. Für die vorliegende Arbeit sollen vor allem die Daten der ersten EEG-Messung (t1) ohne Einfluss jeglicher relevanter Medikation, die Daten der zweiten EEG-Messung (Challenge; t2), welche 60 Minuten nach der Einnahme eines der drei zur Verfügung stehenden Medikamente (Methylphenidat MPH 20 mg, Atomoxetin ATX 20 mg oder Placebo) erhoben wurden, und die Langzeitergebnisse nach ca. 28 Tagen Behandlungsdauer (t3) mit Methylphenidat (MPH) oder Atomoxetin (ATX) untersucht werden. Zur Überprüfung der Alternativhypothesen H1: μ > μ0, wurden jeweils die Hirnströme der Placebo-Gruppe mit denen der Medikamentengruppen (MTP und ATX) verglichen. Zur Überprüfung der Alternativhypothese H2: µ1 ≠ µ2, wurden die beiden Wirkstoffgruppen (ATX und MTP) miteinander verglichen. Auswertbar waren zum Zeitpunkt der Challenge die Daten von 30 Patienten, zum Zeitpunkt des Follow-Ups noch 28 Patientendaten. Ergebnisse: 1. Es ergab sich ein signifikanter Unterschied der relativen P150-Amplitude unter Therapie mit Methylphenidat zwischen der Baseline (t1) und der Challenge (t2) über Elektrodenposition Fz. 2. Es ergab sich ein signifikanter Unterschied der Amplitude der N2 unter Therapie mit Atomoxetin sowohl zwischen der Baseline- (t1) und der Challenge- (t2) also auch zwischen der Baseline- (t1) und der Behandlungsmessung (t3). Im Rahmen der Challenge-Untersuchung trat ein vergleichbarer Effekt auch in der Placebogruppe auf. Außerdem zeigte die Amplitude der N2 sowohl unter Atomoxetin als auch in der Placebogruppe Anstiege zwischen der Baseline (t1) und der Challenge (t2), welche für die Methylphenidatgruppe nicht beobachtet wurden. Diskussion: Das Potential P150 repräsentiert Filterung und gerichteter Aufmerksamkeit. Diese Komponenten werden durch die kurzfristige Einnahme von Methylphenidat beeinflusst. Einen Zusammenhang zwischen Dopaminaktivität im präfrontalen Kortex und verbesserter Aufmerksamkeit konnte kürzlich gezeigt werden (Rubia et al., 2011). Unsere Ergebnisse können diesen Zusammenhang bestätigen und zeigen zudem eine direkte Korrelation zwischen der Einnahme von Mehtylphenidat und dem Potential P150. Ein Ansprechen der P150 auf Methylphenidat repräsentiert somit eine Verbesserung der Aufmerksamkeit. Das Potential N2 repräsentiert Inhibition und somit, die Impulsivität. Diese wird sowohl durch die kurzfristige, als auch durch die längerfristige Einnahme von Atomoxetin beeinflusst. Analog der o. g. Ergebnisse kann somit von einem Effekt des selektiven Noradrenalin Wiederaufnahmehemmer auf die Symptomatik der Impulsivität ausgegangen werden. Eine Korrelation von Atomoxetin und der Aktivität des rechten inferioren, frontalen Kortex konnte ebenfalls bereits gezeigt werden (Chamberlain et al., 2008). Auch diese Ergebnisse können wir mit unserer Studie bestätigen und zudem eine Korrelation zwischen der Einnahme von Atomoxetin und dem Potential N2 aufzeigen. Ein Ansprechen der N2 unter Methylphenidat repräsentiert somit eine verbesserte Inhibtionskontrolle und somit eine verminderte Impulsivität. Somit konnte gezeigt werden, dass beide Medikamente auf unterschiedliche Teilsymptome des ADHS wirken.
The aim of this study was both to investigate the influence of cognitive control on unconscious processing, and to investigate the influence of unconscious processing on cognitive control. At first, different mechanisms and accounts to explain unconscious priming are presented. Here, perceptual and motor processes, as well as stimulus-response learning, semantic categorization, and the action trigger account as theories to explain motor priming are discussed. Then, the issue of the potential limits of unconscious processing is presented. Findings that indicate that active current intentions and expertise modulate unconscious processing are illustrated. Subsequently, results that imply an influence of unconsciously presented stimuli that goes beyond motor processes are discussed, with a special focus on inhibition processes, orienting of attention, task set activation, and conflict adaptation. Then I present the results of my own empirical work. Experiment 1 shows that the effective processing of unconsciously presented stimuli depends on expertise, even when potentially confounding difference between the expert and novice groups are controlled. The results of Experiments 2 and 3 indicate that the intention to use particular stimuli is a crucial factor for the effectiveness of these stimuli when they are presented unconsciously. Additionally, these findings show that shifts of attention can be triggered by centrally presented masked arrow cues. Experiments 4 and 5 broaden these results to cue stimuli that are not inherently associated with a spatial meaning. The finding corroborate that typically endogenously controlled shifts of attention can also be induced by unconscious stimuli. Experiments 6 and 7 demonstrate that even a central cognitive control process like task set activation is not contingent on conscious awareness, but can in contrast be triggered through unconscious stimulation. Finally, these results are integrated and I discuss how the concept of cognitive control and the limits of unconscious processing may have to be reconsidered. Furthermore, potential future research possibilities in this field are presented.
Inhalt der vorliegenden Arbeit ist eine Studie der englisch-deutschen und deutsch-englischen Wörterbücher von Johannes Ebers, die gegen Ende des 18. Jahrhunderts erschienen. Die Arbeit versucht in einem ersten Schritt zu bestimmen, wie und in welchem Ausmaß die zeitgenössischen englischen Orthoepisten und Lexikografen, die Ebers als Quellen benutzt hat, Konzept und Realisierung seines englisch-deutschen Wörterbuches beeinflusst haben. Der zweite Schwerpunkt dieser Arbeit ist die Darstellung einer Methodologie zur Erstellung einer digitalen Edition der Wörterbücher auf der Grundlage der TEI-Guidelines for Electronic Text Encoding and Interchange (Version P5).
Das Phänomen der kardialen Präkonditionierung beschreibt die Möglichkeit durch bestimmte Stimuli die Toleranz des Myokardgewebes gegenüber lang andauernden Ischämien zu erhöhen. Es existieren zwei Formen der Präkonditionierung: die ischämische (IPC) und die pharmakologisch induzierte Präkonditionierung (PPC). Eine wichtige Form der PPC stellt die Anästhetika-induzierte Präkonditionierung (APC) dar. Die Untersuchungen der vorliegenden Arbeit erfolgten anhand eines in vivo Myokardinfarktmodells der Maus. Die IPC wurde durch mehrere kurze Episoden ischämischer Ereignisse hervorgerufen und führte zu einer signifikanten Reduktion der Herzinfarktgröße um bis zu 70 Prozent. Bei der APC wurde das Myokard mittels Applikation des volatilen Anästhetikums Desfluran präkonditioniert. Das Ausmaß der Herzinfarktgrößenreduktion war mit dem der IPC vergleichbar. Neben dem Nachweis der präkonditionierenden Effekte von IPC und Desfluran war es Ziel dieser Arbeit die Rolle der Serin-Threonin-Kinase Pim-1 und ihrer antiapoptotischen Fähigkeiten zu ermitteln. Die Bedeutung der Pim-1 Kinase in der Signalvermittlung der ischämischen und Desfluran-induzierten Präkonditionierung wurde über deren Blockade mit dem selektiven Pim-1 Kinase Inhibitor II untersucht. Der präkonditionierende Effekt von Desfluran konnte durch die Blockade der Pim-1 Kinase vollständig aufgehoben werden, während die Wirkung der IPC nur teilweise aufgehoben wurde. Somit ist die Pim-1 Kinase in die Signalvermittlung der IPC und Desfluran-induzierten Präkonditionierung involviert. Sie scheint jedoch eine unterschiedliche Rolle bei IPC und APC zu spielen. Mittels Western Immunoblot erfolgte die Bestimmung der Proteinexpression von Pim-1 Kinase, Bad und phospho-BadSer112. Die Bestimmung des Phosphorylierungsausmaßes von Bad an Serin 112 diente als Surrogatparameter der Pim-1-Aktivität. Nach ischämischer und Desfluran-induzierter Präkonditionierung zeigte sich eine tendenzielle Zunahme der Phosphorylierung von Bad. Im Falle der Desfluran-induzierten Präkonditionierung konnte dieser Effekt durch Applikation des Pim-1 Kinase Inhibitors II signifikant reduziert werden, während dagegen bei der IPC kein Einfluss des Pim-1 Kinase Inhibitors II beobachtet werden konnte. Als intrazellulärer Marker der Apoptoseinduktion wurde der zytosolische Gehalt an Cytochrom C bestimmt. Nach IPC und APC zeigte sich eine tendenzielle Reduktion des zytosolischen Gehaltes an Cytochrom C. Durch Applikation des Pim-1 Kinase Inhibitors II konnte diese Reduktion bei der Desfluran-induzierten Präkonditionierung aufgehoben werden, während die Effekte der IPC unverändert blieben. Die Pim-1 Kinase wirkt somit antiapoptotisch und kardioprotektiv, wobei eine unterschiedliche Funktion bei der IPC und APC zu vermuten ist. Die Untersuchungen der vorliegenden Arbeit konnten am in vivo Myokardinfarktmodell der Maus nachweisen, dass die Pim-1 Kinase an der Vermittlung der ischämischen und Desfluran-induzierten Präkonditionierung gegen Myokardinfarkt beteiligt ist. Sie scheint jedoch bei IPC und APC eine unterschiedliche Bedeutung zu haben.
In der vorliegenden Arbeit wurde das Expressionsverhalten fünf zellulärer Marker beim metastasierenden Plattenepithelkarzinom des Kopf- und Halsbereiches untersucht. Bei den getesteten Markern handelte es sich um einen MAGE-A, zwei verschiedenen VEGF, einen EGFR und einen C-Src-Tyrosinkinase Antikörper. Im Einzelnen sollte hinterfragt werden, ob ein Zusammenhang zwischen der Antikörperexpression und verschiedenen, klinischen und histopathologischen Parametern (pT-Stadium, pN-Stadium, histologisches Grading, Tumorverhornung, Patientenalter, Geschlecht des Patienten) besteht. Weiterhin war von Interesse, ob Parallelen zwischen dem Expressionsverhalten der verschiedenen Antikörper untereinander zu erkennen sind. Die Ergebnisse wurden anschließend mit Erkenntnissen aus anderen Studien und Literaturangaben verglichen.
The work presents a performance evaluation and optimization of so-called overlay networks for content distribution in the Internet. Chapter 1 describes the importance which have such networks in today's Internet, for example, for the transmission of video content. The focus of this work is on overlay networks based on the peer-to-peer principle. These are characterized by the fact that users who download content, also contribute to the distribution process by sharing parts of the data to other users. This enables efficient content distribution because each user not only consumes resources in the system, but also provides its own resources. Chapter 2 of the monograph contains a detailed description of the functionality of today's most popular overlay network BitTorrent. It explains the various components and their interaction. This is followed by an illustration of why such overlay networks for Internet service providers (ISPs) are problematic. The reason lies in the large amount of inter-ISP traffic that is produced by these overlay networks. Since this inter-ISP traffic leads to high costs for ISPs, they try to reduce it by improved mechanisms for overlay networks. One optimization approach is the use of topology awareness within the overlay networks. It provides users of the overlay networks with information about the underlying physical network topology. This allows them to avoid inter-ISP traffic by exchanging data preferrentially with other users that are connected to the same ISP. Another approach to save inter-ISP traffic is caching. In this case the ISP provides additional computers in its network, called caches, which store copies of popular content. The users of this ISP can then obtain such content from the cache. This prevents that the content must be retrieved from locations outside of the ISP's network, and saves costly inter-ISP traffic in this way. In the third chapter of the thesis, the results of a comprehensive measurement study of overlay networks, which can be found in today's Internet, are presented. After a short description of the measurement methodology, the results of the measurements are described. These results contain data on a variety of characteristics of current P2P overlay networks in the Internet. These include the popularity of content, i.e., how many users are interested in specific content, the evolution of the popularity and the size of the files. The distribution of users within the Internet is investigated in detail. Special attention is given to the number of users that exchange a particular file within the same ISP. On the basis of these measurement results, an estimation of the traffic savings that can achieved by topology awareness is derived. This new estimation is of scientific and practical importance, since it is not limited to individual ISPs and files, but considers the whole Internet and the total amount of data exchanged in overlay networks. Finally, the characteristics of regional content are considered, in which the popularity is limited to certain parts of the Internet. This is for example the case of videos in German, Italian or French language. Chapter 4 of the thesis is devoted to the optimization of overlay networks for content distribution through caching. It presents a deterministic flow model that describes the influence of caches. On the basis of this model, it derives an estimate of the inter-ISP traffic that is generated by an overlay network, and which part can be saved by caches. The results show that the influence of the cache depends on the structure of the overlay networks, and that caches can also lead to an increase in inter-ISP traffic under certain circumstances. The described model is thus an important tool for ISPs to decide for which overlay networks caches are useful and to dimension them. Chapter 5 summarizes the content of the work and emphasizes the importance of the findings. In addition, it explains how the findings can be applied to the optimization of future overlay networks. Special attention is given to the growing importance of video-on-demand and real-time video transmissions.
Bei den Rezeptoren BAFF-R und BCMA handelt es sich um Mitglieder der TNF-Familie, die mit ihrem Liganden BAFF eine wichtige Rolle in der Homöostase und der Entwicklung der B-Zelllinie spielen. Mehrere Autoren zeigten bereits einen Zusammenhang dieses Ligand-/Rezeptorsystems mit der Proliferationskapazität und dem Überleben hämatopoetischer maligner Zellen auf. Die Expression dieser Rezeptoren als auch die Antikörperbildung gegen BCMA bei Patienten mit Multiplen Myelom (MM), die eine Lymphozytenspende erhalten hatten, führte zu der Annahme, dass BAFF-R und BCMA wichtige Zielantigene für die Entwicklung eines monoklonalen Antikörpers als Immuntherapeutikum des Multiplen Myeloms darstellen könnten. Um Ihre Eignung näher zu evaluieren, haben wir eine breit gefächerte Analyse der Expression von BAFF-R und BCMA auf hämatopoetischen und primären MM-Zellen und auf verschiedenen humanen Geweben vorgenommen. Wir konnten zeigen, dass BAFF-R auf B-und T-Lymphozyten und lymphoiden Dendritischen Zellen als auch in sehr unterschiedlicher Stärke auf primären MM-Zellen exprimiert wird. BCMA, dessen Expression bisher nur auf (malignen) Plasmazellen bekannt war, konnte nur auf primären MM-Zellen nachgewiesen werden. Nachdem BAFF-R durch die Entdeckung seiner Expression auf Hirngewebe als mögliches target für weitere Untersuchungen wegfiel, fokussierten wir uns auf das weitere Expressionsprofil von BCMA. Durch RT-PCR und immunhistochemische Untersuchungen konnte gezeigt werden, dass auch BCMA nicht selektiv von Plasmazellen oder ihrem malignen Pendant, sondern auch signifikant auf relevanten humanen Geweben wie Niere und Leber exprimiert wird. Eine targeted therapy mit diesen beiden Rezeptoren als Zielantigene ist somit weitestgehend ausgeschlossen, da eine Therapie mit einem monoklonalen Antikörper keine Selektivität für MM-Zellen besäße und somit die Gefahr einer Schädigung lebenswichtiger Organe nach sich ziehen könnte.
Die vorliegende Arbeit untersuchte die Veränderungen der wichtigsten hämostatischen Komponenten der plasmatischen Gerinnung in Thrombozyten- und Plasmakonzentraten während der achttägigen Lagerung bei Raumtemperatur. Es wurden keine signifikanten und klinisch relevanten Veränderungen der plasmatischen hämostatischen Kapazität des Plasmas für Fibrinogen, Gerinnungsfaktor XI, XII und XIII, Protein S und C (quantitative Messung), D-Dimere, von Willebrand-Faktor, Kollagenbindungs-aktivität und Ristocetin-Cofaktor nachgewiesen. Es kam jedoch zu einer zeitabhängigen Veränderung während der Lagerung bei PTT, Quick, Thrombinzeit, Gerinnungsfaktoren II, V, VII, VIII, IX, und X, Antithrombin III, Protein S und C (funktionelle Messung), Prothrombinfragmente F1+F2 und APC-Resistenz. Diese Veränderungen fanden sich zudem insbesondere in den gelagerten Thrombozytenkonzentraten. Die wenigen, in der Literatur verfügbaren Untersuchungen zeigen Ergebnisse, die den unseren vergleichbar sind. Erstmal wurden mit dieser Dissertationsarbeit jedoch umfassend alle diese Parameter in einem Ansatz verglichen. Vorausgesetzt, dass hämostaseologische Faktoren auch unter ungünstigen Lagerungsbedingungen weitgehend ihre hämostatische Kapazität behalten, kann bei Infusionen von Früh- oder Neugeborenen praktische Bedeutung erlangen, da die plasmatische hämostatische Kapazität in Thrombozytenkonzentraten nun in den Gesamtbedarf einbezogen werden kann. Ebenso können vereinfachte Lagerbedingungen (Raumtemperatur versus Tiefkühlung) in Krisensituationen enorme logistische Vorteile mit sich bringen. Weitere, insbesondere klinische Transfusionsstudien müssen nun zeigen, ob die ex vivo gewonnenen Erkenntnisse zur Haltbarkeit hämostatischer Gerinnungsfaktoren sich in den klinisch-praktischen Einsatz übertragen lassen. Mit unseren Versuchen wollten wir auch dazu beitragen, zukünftig möglichst schnelle und praktikable Therapievorschläge für Notfälle bereitzustellen. Eine bedeutende Rolle kann das bei Raumtemperatur gelagerten Plasma in der Transfusionsmedizin, Notfallmedizin, bei Operationen und in Kriseneinsätzen spielen. Es bleiben noch viele Fragen zu diesem Thema offen. Diese Arbeit wird zu weiterer Forschung anregen.
Zielsetzung: Zur Therapieentscheidung bei Osteoporose stehen mehrere Algorithmen basierend auf klinischen Risikofaktoren mit oder ohne Berücksichtigung der Knochendichte zur Verfügung. Ziel der vorliegenden Arbeit ist der Vergleich zwischen dem WHO FRAX-Algorithmus und einem von der DVO (Dachverband Osteologie) entwickelten Algorithmus hinsichtlich der Entscheidung für eine Osteoporose-spezifische Therapie.
Methoden: Insgesamt wurden 300 konsekutive Patienten (231 Frauen, 69 Männer, im Alter von 40-88 Jahren) in die Studie eingeschlossen, bei denen mit dualer-Röntgen-Absorptiometrie (DXA) am Femurhals und der lumbalen Wirbelsäule und mit peripherer quantitativer Computertomographie (pQCT) am distalen Radius die Knochendichte gemessen wurde. Mit dem FRAX-Rechner wurde unter Berücksichtigung von 12 klinischen Risikofaktoren und der Knochendichte am Femurhals die 10-Jahres-Frakturwahrscheinlichkeit für eine Hüftfraktur und eine größere osteoporotische Fraktur ermittelt. Analog dazu erfolgte mit dem DVO-Algorithmus anhand von 21 klinischen Risikofaktoren und des T-Scores am Femurhals oder der lumbalen Wirbelsäule die Bestimmung einer Therapieempfehlung ja/nein. Odds-Ratios zur Beurteilung der relativen Einflussstärke der einzelnen Risikofaktoren (CRFs) wurden mit Hilfe der multivariaten logistischen Regressionsanalyse berechnet. Der McNemar-Test kam zur Anwendung, um signifikante Unterschiede in der Häufigkeitsverteilung von Patienten mit positiver Therapieempfehlung bei FRAX und DVO zu ermitteln.
Ergebnisse: Beim Vergleich des Gesamtkollektivs zeigte sich ein statistisch signifikanter Unterschied (p<0.01) hinsichtlich der Anzahl der Patienten mit Empfehlung zur Therapie: FRAX 12% (36 absolut), DVO 30,3% (91 absolut). Das Gleiche gilt für die relative Einflussstärke der CRFs, ausgedrückt als Odds Ratio (OR): CRFs mit dem stärkstem Einfluss auf die Therapieentscheidung bei FRAX: Vorausgehende Fraktur (OR 48), Hüftfraktur der Eltern (OR 36,6) und Glukokortikoide (OR 34,4). Die entsprechenden CRFs bei DVO unter Einschluss des T-Scores am Femur: Glukokortikoide (OR 120), Rheumatoide Arthritis (29,3) und häufige Stürze (OR 16). Die einflussreichsten CRFs bei DVO unter Berücksichtigung des T-Scores an der LWS: TSH< 0,3mU/I (OR 660,6), Rheumatoide Arthritis (OR 440) und multiple Stürze (OR 250,8).
Schlussfolgerung: FRAX und DVO liefern signifikant unterschiedliche Ergebnisse sowohl im Hinblick auf die Anzahl der Patienten mit Therapieempfehlung als auch was die Einflussstärke der berücksichtigten CRFs betrifft. Beim DVO-Algorithmus werden Risikofaktoren wie ein supprimierter TSH-Wert (Schilddrüsenstimulierendes Hormon) einbezogen, deren Evidenz nicht eindeutig geklärt ist, die aber starken Einfluss auf die Therapieentscheidung gewinnen, wenn man beim DVO-Algorithmus den T-Score an der LWS mitberücksichtigt.
Häufig stellt die frühe Phase der innerklinischen Traumaversorgung bei Polytraumapatienten besonders die Schädel-Hirn-Verletzungen betreffend einen sehr dynamischen Zeitraum dar, weshalb zeitlich getriggerte Kontrolluntersuchungen weit verbreitet sind. Andererseits bedeutet der Transport zur Untersuchung für beatmete Patienten eine zusätzliche Gefahr. Untersucht wurde, wie häufig sich in einer frühen Kontroll-Computertomografie des Schädels neue oder verschlechterte Befunde finden und, wie diese neuen Informationen die Intensivtherapie beeinflussen. Methode: Retrospektive Analyse aus Befunddaten und Krankenakten. Eingeschlossen wurden 150 beatmete Patienten mit SHT oder Verdacht auf ein SHT, die eine frühe CCT-Kontrolle bekamen. Ergebnisse: Eine Verschlechterung der Befunde wurde bei 63 Patienten (42%) und neue Befunde bei 18 Patienten (12%) gefunden. Bei 47 Pateinten (31%) wurde die Intensivtherapie aufgrund der frühen Kontroll-CCT geändert. Schlussfolgerung: Bei beatmeten Polytraumapatienten treten in mehr als der Hälfte der Fälle Verschlechterungen oder neue intracranielle Befunde auf. Eine frühe CCT-Kontrolle kann diese erkennen und zu einer rechtzeitigen Therapieoptimierung führen.
This study explores novelty choice, a behavioral paradigm for the investigation of visual pattern recognition and learning of the fly Drosophila melanogaster in the flight simulator. Pattern recognition in novelty choice differs significantly from pattern recognition studied by heat conditioning, although both paradigms use the same test. Out of the four pattern parameters that the flies can learn in heat conditioning, novelty choice can be shown for height (horizontal bars differing in height), size and vertical compactness but not for oblique bars oriented at +/- 45°. Upright and inverted Ts [differing in their centers of gravity (CsOG) by 13°] that have been extensively used for heat conditioning experiments, do not elicit novelty choice. In contrast, horizontal bars differing in their CsOG by 13° do elicit novelty choice; so do the Ts after increasing their CsOG difference from 13° to 23°. This indicates that in the Ts the heights of the CsOG are not the only pattern parameters that matter for the novelty choice behavior. The novelty choice and heat conditioning paradigms are further differentiated using the gene rutabaga (rut) coding for a type 1 adenylyl cyclase. This protein had been shown to be involved in memory formation in the heat conditioning paradigm. Novelty choice is not affected by mutations in the rut gene. This is in line with the finding that dopamine, which in olfactory learning is known to regulate Rutabaga via the dopamine receptor Dumb in the mushroom bodies, is dispensable for novelty choice. It is concluded that in novelty choice the Rut cAMP pathway is not involved. Novelty choice requires short term working memory, as has been described in spatial orientation during locomotion. The protein S6KII that has been shown to be involved in visual orientation memory in walking flies is found here to be also required for novelty choice. As in heat conditioning the central complex plays a major role in novelty choice. The S6KII mutant phenotype for height can be rescued in some subsets of the ring neurons of the ellipsoid body. In addition the finding that the ellipsoid body mutants ebo678 and eboKS263 also show a mutant phenotype for height confirm the importance of ellipsoid body for height novelty choice. Interestingly some neurons in the F1 layer of the fan-shaped body are necessary for height novelty choice. Furthermore, different novelty choice phenotypes for different pattern parameters are found with and without mushroom bodies. Mushroom bodies are required in novelty choice for size but they are dispensable for height and vertical compactness. This special circuit requirement for the size parameter in novelty choice is found using various means of interference with mushroom body function during development or adulthood.
In der vorliegenden Arbeit wurde der Archivbestand des Instituts für Rechtsmedizin der Universität Würzburg aus den Jahren 2002 bis 2012 untersucht. 696 Fälle mit Beteiligung stumpfer Gewalt, wurden statistisch erfasst. Darin eingeschlossen waren 622 Sektionsprotokolle und 74 Akten von Lebenduntersuchungen. Erfasst wurden dabei 94 Opfer von Gewalttaten und 598 Unfallopfer. Ziel der Arbeit war es, folgenden Fragestellungen nachzugehen: Welche Rückschlüsse im Hinblick auf deren Entstehung erlauben Art, Anzahl und Lokalisation von Gesichtsverletzungen im Einzelnen? Kann anhand dieser entschieden werden, ob es sich um einen Unfall oder ein Gewaltdelikt handelte? In diesem Zusammenhang wurden ausschließlich Fälle von stumpfer Gewalt bzw. stumpfer Gewalteinwirkung berücksichtigt. Folgende Kriterien wurden in einer Excel -Tabelle er- fasst und anschließend mittels SPSS [36] statistisch ausgewertet: Geschlecht, Alter, Verletzungsursache, die Blutalkoholkonzentration und, falls zutreffend, die Todesursache. Des Weiteren wurden folgende Verletzungsmerkmale registriert: Weichteilverletzungen und Frakturen der Nasen, des Ober- und Unterkiefers, Läsionen der Mundschleimhaut, der Ohren und des postaurikulären Bereichs. Außerdem die Anzahl von Verletzungen pro Opfer und Ursache. Um Aussagen über Fälle, in denen ein Verkehrsunfall oder zumindest ein Insassenunfall ausgeschlossen werden konnte, treffen zu können, wurden drei Untersuchungsgruppen gebildet. Ein Gesamtkollektiv, eine Gruppe speziell ohne Insassenverkehrsunfälle und ein Kollektiv generell ohne Verkehrsunfälle.
Das Gesamtkollektiv bestand aus 486 männlichen Geschädigten und 208 weiblichen Opfern. Männer waren häufiger Opfer von Unfällen als Frauen (m:w = 2,8:1). Bei Gewaltdelikten war das Verhältnis ausgeglichen (m:w = 1:1).
Die häufigste Unfallursache war der Insassenverkehrsunfall, gefolgt von unfall- bedingten Stürzen. Gewaltformen waren (in absteigender Reihenfolge) multiple
66
Gewalteinwirkungen bzw. Misshandlungen, Schläge mit stumpfen Gegenständen, Schläge mit der Hand und durch Stöße verursachte Stürze. Die häufigste Todesursache war das Schädel-Hirn-Trauma.
Die Analyse der Ausprägung verschiedener Verletzungen ergab, dass im Kollektiv ohne VU mehrere gleichzeitig auftretende Verletzungen eher für ein Gewaltdelikt sprechen. Zudem zeigte sich, dass explizit Sturzereignisse durchschnittlich signifikant weniger Verletzungen aufweisen als Misshandlungen bzw. multiple stumpfe Gewaltanwendungen. Verletzungen der Nasenweichteile und der Ober- und Unterkiefermundschleimhäute wurden sowohl bei Unfällen als auch bei Gewalttaten in allen Kollektiven als die Häufigsten identifiziert. Frakturen der Mandibula, Maxilla, des Os nasale und Zahnverletzungen zeigten keine signifikant unterschiedlichen Ausprägungen. Es konnte nachgewiesen werden, dass sich Mundschleimhautverletzungen insbesondere des Oberkiefers, Verletzungen der Nasenweichteile, der Ohrmuschel und der Haut hinter den Ohren signifikant häufiger bei Delikten stumpfer Gewalt präsentierten als dies bei Unfällen bzw. Sturzgeschehen der Fall war. Obwohl ein deutliches statistisches Übergewicht der Unfallzahlen im Vergleich zu Gewalttaten vorlag, zeigte sich, dass unter allen Ohrverletzungen (sowie Läsionen der Haut h. d. Ohren) mehr als die Hälfte durch eine Gewalttat verursacht wurden. Es wurde festgestellt, dass Kopfverletzungen durch stumpfe Gewalt, welche in der Literatur als typisch für Kindesmisshandlungen beschrieben werden, auch in Fällen von Gewalt gegen Erwachsene signifikant häufiger bei stumpfen Gewaltdelikten auftreten. Somit könnten diese auch als Prädiktor für vorliegende Gewalttaten dienen. Eine entsprechende Datenbank könnte als sinnvolle Ergänzung zu den bekannten Mitteln der Rechtsmedizin bzw. medizinischen Kriminalistik Verwendung finden, um Unfälle von Delikten stumpfer Gewalt zu unterscheiden.
Hintergrund: Schizophrenie-Spektrumerkrankungen sind häufige, schwerwiegende psychische Erkrankungen, die ein hohes Leid bei Betroffenen und ihren Angehörigen verursachen. Trotz intensiver Bemühungen ist die Ätiopathogenese dieser Erkrankungen bislang nur unzureichend verstanden, die Behandlung bislang nur symptomatisch möglich, wenngleich eine Wechselwirkung zwischen genetischen und umweltbezogenen Faktoren als ursächlich erscheint. Vorherige Arbeiten an frisch gefrorenem Hippokampusgewebe konnten zeigen, dass die adulte Neurogenese in der Subgranularzellschicht des Hippokampus bei an Schizophrenie Erkrankten vermindert ist. Weiterhin gibt es Hinweise für eine Beteiligung des cholinergen Systems und von M1-Acetylcholinrezeptoren bei der Entstehung der psychotischen Symptomatik. Ebenfalls konnte bereits in der Vergangenheit ein Mausmodell generiert werden, das schizophrenieartiges Verhalten zeigt und bei dem der M1-Acetylcholinrezeptor ausgeschaltet ist. Material und Methoden: Im Rahmen der vorliegenden Arbeit wurde zunächst eine Färbung gegen das Ki-67 Antigen als Marker für proliferative Aktivität in lange Zeit gelagertem Formalin-fixiertem und paraffiniertem Hirngewebe etabliert. Anschließend wurde eine postmortale Fall-Kontroll-Studie in lange Zeit gelagertem, in Formalin fixiertem und paraffiniertem Hippokampusgewebe durchgeführt, bei der die Zahl proliferativ aktiver Zellen, die gegen Ki-67 anfärbbar waren, untersucht wurde. Hierbei wurden sowohl gegen Ki-67 anfärbbare Zellen in der Subgranularzellschicht, als auch im Hilus ausgewertet. Es standen Hippokampi von 18 schizophren Erkrankten sowie 37 Hippokampi gesunder Kontrollen, die aus zwei verschiedenen Hirnbanken rekrutiert werden mussten, zur Verfügung. Die statistische Analyse erfolgte mithilfe eines Kruskal-Wallis Tests sowie bei signifikanten Ergebnissen in diesem mit einem Mann-Whitney U Test. Des Weiteren wurde eine Färbung gegen das Ki-67 Antigen in frisch gefrorenen Gehirnen von männlichen Mäusen durchgeführt; hierbei wurden zwölf wildtypische Mäuse mit zwölf Mäusen mit einer Ausschaltung des M1-Acetylcholinrezeptors vergleichen, wobei letztere schizophrenieartiges Verhalten zeigen. Die Auswertung erfolgte mittels eines zweiseitigen t-Tests. Ergebnisse: Eine Färbung gegen Ki-67 in lange Zeit gelagertem, Formalin-fixiertem und in Paraffin eingebettetem Gewebe konnte etabliert werden. Bei Analyse der humanen Fall-Kontroll-Studie konnte ein Trend zu einer verminderten adulten Neurogenese in der hippokampalen Subgranularzone bei schizophrenen Pateinten gefunden werden. Ein signifikanter Unterschied konnte im Vergleich der Fälle und einer Subgruppe von Kontrollen gefunden werden, die jedoch aus einer anderen Hirnbank als die Fälle stammten. Keine Signifikanz konnte bei Vergleich der Fälle mit den Kontrollen aus der gleichen Hirnbank oder bei Vergleich der Ki-67 positiven Zellen in der Hilusregion gefunden werden. Im Mausmodell konnte im Sinne der Hypothese einer verminderten adulten Neurogenese in den M1-Rezeptor knockout-Tieren eine signifikante Reduktion Ki-67 positiver Zellen im Vergleich zu wildtypischen Tieren gezeigt werden, wenn Zellnester anstatt einzelner Zellen gezählt wurden. Diskussion: Es konnte ein Trend hin zu einer verminderten hippokampalen adulten Neurogenese in der Subgranularzellschicht bei an Schizophrenie Erkrankten aufgezeigt werden. Aufgrund der Heterogenität der Proben sind die Ergebnisse jedoch vorsichtig zu bewerten, da Unterschiede in der Vorbehandlung der Proben unter Umständen auch die Ergebnisse erklären könnten, sodass die Ausgangshypothese einer verminderten hippokampalen adulten Neurogenese nicht sicher widerlegt, aber auch nicht gestützt werden kann; weitere Forschung scheint hier notwendig zu sein. Im Mausmodell konnte eine verminderte hippokampale Neurogenese bei M1-Rezeptor knockout-Mäusen nachgewiesen werden. Dieser Effekt ließ sich nachweisen, wenn große Zellnester betrachtet wurden, was für eine Modulation der Aktivität der neurogenen Niche bei den M1-defizienten Tieren spricht.
Die vorliegende Arbeit untersucht die Auswirkung von Macht und der damit einhergehenden Autonomie auf die Handlungsidentifikation (Vallacher & Wegner, 1985). Es wird die These untersucht, dass eigene Handlungen, die als autonom empfunden werden, auf höherer Ebene identifiziert werden, d.h. stärker in Bezug auf übergeordnete Ziele beschrieben werden, als eigene Handlungen, die als fremdbestimmt empfunden werden. Entsprechend sollten Menschen, die sich selbst als mächtig und daher auch als autonom wahrnehmen, bezüglich ihres eigenen Handelns eine höhere Ebene der Handlungsidentifikation wählen.
Studie 1 zeigt mit Hilfe einer modifizierten Version des Behavior Identification Form (BIF; Vallacher & Wegner, 1989), dass Handlungen, die als selbstgewählt bzw. autonom beschrieben werden, im Vergleich zu Handlungen, die als fremdbestimmt beschrieben werden, häufiger auf einer hohen Ebene der Handlungsidentifikation, also in Bezug auf ihre übergeordneten Ziele beschrieben werden, und seltener durch konkretere Beschreibungen des eigentlichen Handlungsprozesses.
Studie 2 zeigt ebenfalls mit Hilfe eines modifizierten BIF, dass die Handlungen einer anderen Personen häufiger auf einer niedrigeren Ebene der Handlungsidentifikation beschrieben werden, wenn man diese Handlungen laut ihrer Beschreibung selbst veranlasst hat, als wenn sich diese Person selbst entschieden hat, diese Handlungen auszuführen. Auch dieser Zusammenhang kann durch die Annahme erklärt werden, dass die eigene Einflussnahme eine Einschränkung der Autonomie der Handlungen einer anderen Person ist und diese Verringerung der Autonomie zu einer Verringerung der Ebene der Handlungsidentifikation führt.
Studie 3 zeigt, dass Versuchspersonen nach der Aktivierung des Konzeptes Autonomie durch semantisches Priming sowohl die eigenen Handlungen als auch die einer anderen Person auf höherer Ebene der Handlungsidentifikation beschreiben.
Studie 4 zeigt, dass männliche Versuchspersonen, die in einem Rollenspiel eine relativ mächtige Position einnehmen, im Vergleich zu männlichen Versuchspersonen, die eine relativ machtlose Rolle einnehmen, ein erhöhtes Autonomieempfinden berichten und gleichzeitig auch häufiger Handlungen auf einer höheren Ebene der Handlungsidentifikation beschreiben. Dabei spielt es auch in dieser Studie keine Rolle, ob es sich um eigene Handlungen handelt oder um die einer anderen Person. Für Frauen zeigt sich weder ein erhöhtes Autonomieempfinden in der relativ mächtigen Rolle noch eine erhöhte Häufigkeit, mit der die höhere Ebene der Handlungsidentifikation gewählt wird.
In Studie 5 werden korrelative Zusammenhänge von Persönlichkeitsvariablen untersucht. Hierbei zeigt sich ein positiver Zusammenhang zwischen selbstberichtetem generalisierten Machtempfinden und der Häufigkeit, mit der Handlungen auf höherer Ebenen der Handlungsidentifikation beschrieben werden. Dieser Zusammenhang verschwindet, wenn für das selbstberichtete Autonomieempfinden kontrolliert wird.
Die Ergebnisse sprechen für einen Zusammenhang zwischen Autonomie und Handlungsidentifikation, welcher auch einen Wirkmechanismus für den Zusammenhang zwischen Macht und Handlungsidentifikation darstellt.
Unklar bleibt die Frage, wie genau die Wirkung auf die Identifikation des Handelns anderer zustande kommt. Zudem wird diskutiert, inwiefern, die Interpretation von Macht – als Situation erhöhter Verantwortung oder gesteigerter Autonomie – zu unterschiedlichen Effekten von Macht auf Handlungsidentifikation führen kann.
Zudem wird die Frage untersucht, inwiefern die höhere Abstraktion von Handlungen auch mit einer höheren Abstraktion in anderen Bereichen der Informationsverarbeitung einhergeht. Hierzu wird exemplarisch die Verarbeitung visueller Stimuli untersucht. Die Daten weisen auf einen Zusammenhang zwischen Macht bzw. Autonomie und einer globaleren Verarbeitung visueller Stimuli hin. Der fehlende Zusammenhang zwischen abstrakter Handlungsidentifikation und globaler visueller Verarbeitung deutet jedoch darauf hin, dass es sich hierbei um voneinander unabhängige Wirkmechanismen handelt.
Die vorliegende Studie befasst sich mit der medikamentösen Langzeittherapie der Endotheldysfunktion im Rahmen der klinisch manifesten Herzinsuffizienz nach
Myokardinfarkt mit dem sGC-Aktivator Ataciguat.
Im Rahmen der chronischen Herzinsuffizienz nach abgelaufenem Myokardinfarkt kommt es als Folge der eingeschränkten linksventrikulären Funktion und der verminderten Schubspannung am Gefäßendothel zur Endotheldysfunktion. Die Vasodynamik gerät aus dem Gleichgewicht und führt zur erniedrigten Bioverfügbarkeit von NO, zur verminderten Expression des NO-synthetisierenden Enzyms (eNOS) und zur
Entkopplung der eNOS. Dieses als „eNOS-uncoupling“ bekannte Phänomen führt zur vermehrten Bildung von reaktiven Sauerstoffradikalen, welche den oxidativen Stress auf das beschädigte Endothel erhöhen. Die reaktiven Sauerstoffradikale oxidieren zusätzlich in den glatten Muskelzellen die lösliche Guanylatzyklase und reduzieren somit die Vasodilatation.
Verschiedene neurohumerale Systeme beeinflussen das Gleichgewicht zwischen vasodilatativen und vasokonstriktiven Substanzen am Endothel und somit die
Endothelfunktion. Diese neurohumeralen Systeme spielen wichtige Rollen in der aktuellen medikamentösen Therapie der chronischen Herzinsuffizienz und bieten zahlreiche verschiedene Therapieoptionen.
Ein relativ neuartiger Therapieansatz beinhaltet die medikamentöse Therapie mit sogenannten sGC-Aktivatoren, einer Wirkstoffklasse, die durch direkte Interaktion
mit der löslichen Guanylatzyklase sowohl die Bildung von Sauerstoffradikalen verringert, als auch die NO-Sensibilität am Gefäßendothel verbessert. Hierzu gehört
auch das in dieser Studie untersuchte Ataciguat.
Neben den direkten, „endothel-abhängigen“ Effekten am Gefäßendothel beeinflußt Ataciguat über die sogenannten „endothel-unabhängigen Effekte“ die Funktion der Blutplättchen, welche im Rahmen der Herzinsuffizienz durch die verminderte Bioverfügbarkeit von NO eine vermehrte Aktivierung und Adhäsion erfahren. Die
Folge sind erhöhte Risiken für thrombembolische Ereignisse und die Formation artherosklerotischer Läsionen. Ataciguat vermindert diese Risiken.
Mit den Ergebnissen dieser Studie konnten sowohl die endothel-abhängigen als auch die endothel-unabhängigen Effekte der medikamentösen Langzeittherapie mit
Ataciguat im experimentellen Modell der chronischen Herzinsuffizienz nach Myokardinfarkt bestätigt werden.
Die vorliegende Arbeit analysiert retrospektiv die funktionellen Beeinträchtigungen und Einschränkungen der Lebensqualität von Kindern und Jugendlichen mit primärer fokaler Hyperhidrose.
Grundlage der vorliegenden Untersuchung bildeten ein selbst entworfener Fragebogen sowie die Auswertung der Ambulanzkarten von 35 Kindern und Jugendlichen mit primärer fokaler Hyperhidrose im Alter von unter 18 Jahren, die sich im Zeitraum von Januar 2000 bis Dezember 2009 in der Hyperhidrose-Sprechstunde der Hautklinik des Universitätsklinikums Würzburg vorstellten. Die vorliegende Arbeit spezifiziert die täglichen Einschränkungen, welche die Kinder und Jugendlichen erleben. Für zwei Drittel der Patienten war das Schwitzen nach Maßgabe der Hyperhidrosis Disease Severity Scale kaum zu ertragen oder unerträglich und beeinträchtige häufig oder immer die täglichen Aktivitäten. Zwei Drittel der Patienten gaben an, derart stark unter der Krankheit zu leiden, dass sie ihre Lebensweise der Krankheit anpassten. Weiter konnte gezeigt werden, dass die Einschränkungen ähnlich gravierend sind wie bei Erwachsenen und anderen Dermatosen in der Kindheit. Die psychische und soziale Entwicklung kann bei einigen Betroffenen nachhaltig beeinträchtigt werden, was sich auch auf das spätere Leben auswirken kann. Diese Erkenntnis ist wichtig, um eine frühzeitige Diagnose und adäquate Behandlung voranzutreiben.
Durch zunehmenden, breiteren Einsatz bildgebender Verfahren werden immer häufiger Nebennierenraumforderungen zufällig entdeckt, sog. Inzidentalome. Ist für Tumorentitäten wie dem Conn-Adenom, adrenocorticalen Carcinom, Phäochromozytom oder manifesten Cushing-Syndrom der Krankheitswert belegt, ist dies bei den anderen Nebennierenadenomen unklarer. Diese Adenome sind in der Regel hormoninaktiv; eine Subgruppe jedoch weist ein sog. Subklinisches Cushing-Syndrom auf, beim welchem autonom Cortisol sezerniert wird, aber keine klinische Stigmata eines manifesten Cushing-Syndroms festzustellen sind. Zahlreiche Definitionen für dieses Syndrom sind beschrieben. Allerdings besteht keine Einigkeit über eine allgemeingültige Definition oder zur Frage, ob das Subklinische Cushing-Syndrom überhaupt einen Krankheitswert (zum Beispiel im metabolischen Bereich) besitzt. Genau diesen beiden Punkten widmet sich die vorliegende Arbeit, die sog. WISO Studie (Würzburg Incidentaloma Study on clinical Outcome). Hierbei wurden unterschiedliche aus der Literatur stammenden Definitionen des Subklinische Cushing-Syndroms auf ein großes Nebenniereninzidentalom-Patientenkollektiv angewendet.
Das Patientenkollektiv bildeten Personen, bei denen zwischen 1999-2008 in der Universitätsklinik Würzburg ein Nebennieren-Inzidentalom aufgefallen war bzw. die zur weiteren Abklärung einer auswärts zufällig gefundenen Nebennieren-Raumforderung in der Uniklinik waren. Insgesamt umfasst die Studie ein Kollektiv von 288 Patienten.
Um die erhobenen Daten in Bezug auf das kardiovaskuläre Risiko quantifizierbar und vergleichbar zu machen, wurde ein eigener Score erarbeitet, der sich am Framingham-Score orientierte. Dieser wurde zum sog. „WISO-Framingham-Score“ modifiziert. Im Endeffekt konnte so für jeden Patienten eine individuelle Erkrankungslast berechnet und diese untereinander verglichen werden.
Mit keiner der angewandten 13 Definitionen ließ sich zuverlässig eine Patientengruppe herausfiltern, die kardio-metabolisch gesehen signifikant "kränker" war als das Vergleichskollektiv. Desweiteren ließen sich die zum Teil sehr positiven Ergebnisse einiger Forschungsgruppen in Bezug auf einzelne kardio-metabolische Erkrankungsparameter nicht reproduzieren. Lediglich die Patienten mit einem pathologischen Speichelcortisol-Tagesprofil (n=4) zeigten einen annähernd signifikanten Unterschied in ihrer kardio-metabolischen Gesamtmorbidität (p = 0,05), wobei hier die "Positivgruppe" zu klein war, um verlässliche Aussagen zu treffen.
Auch wenn wir nicht abschließend belegen können, dass das Subklinische Cushing-Syndrom keinen Krankheitswert besitzt, so legen unsere Ergebnisse diese Vermutung doch nahe.
In der vorliegenden Arbeit wurden mesenchymale Fettstammzellen aus humanem abdominalen Fettgewebe erwachsener weiblicher Spender (n = 4) isoliert und in vitro expandiert. Die isolierten mesenchymalen Fettstammzellen wurden auf stammzellspezifische Oberflächenmoleküle mit der Durchflusszytometrie und histologisch auf ihr Multidifferenzierungspotential untersucht. Weitere isolierte mesenchymale Fettstammzellen wurden in Fibringel resuspendiert und in einen Polyurethanschaum eingebracht. Diese Polyurethan-Fibrin-Konstrukte wurden über einen Zeitraum von 21 Tagen in einem chondrogenen Differenzierungsmedium unter der Zugabe der Wachstumsfaktoren TGF-β3 (50 ng/ml), BMP-6 (500 ng/ml) und IGF-I (100 ng/ml) kultiviert. Der Nachweis der chondrogenen Differenzierung und der Bildung einer knorpelähnlichen extrazellulären Matrix erfolgte molekularbiologisch durch die Untersuchung der Polyurethan-Fibrin-Konstrukte auf knorpelspezifische Marker-Gene mittels Real-Time-Polymerase-Kettenreaktion (RT-PCR) und durch biochemische Analyse des DNA-, Glykosaminoglykan- und Kollagen-Gehalts. Zudem erfolgten histologische Färbungen mit Alzianblau und Safranin O sowie eine chromogene Immunhistochemie zur Darstellung der Extrazellularmatrix und knorpelspezifischer Proteine wie SOX-9. Um die angestrebte Biokompatibilität, Einheilung und Defektdeckung dieser chondrogen differenzierten Polyurethan-Fibrin-Konstrukte zu untersuchen, erfolgte zusätzlich ein in vivo-Versuch an Kaninchen mit autologen mesenchymalen Kaninchen-Fettstammzellen. Mesenchymale Kanichen-Fettstammzellen wurden aus dem Nackenfett von New Zealand white rabbits (n = 6) isoliert und vermehrt. Nach einer 2-wöchigen chondrogenen Vordifferenzierung der mesenchymalen Fettstammzellen in Polyurethan-Fibrin-Konstrukten durch Zugabe der Wachstumsfaktoren TGF-β3 (50 ng/ml) und BMP-6 (500 ng/ml) erfolgte die Implantation dieser Konstrukte in gestanzte, 4 mm große Knorpelläsionen der Kaninchenohrmuschel. Nach 3 und 6 Wochen wurden die chondrogen differenzierten Polyurethan-Fibrin-Konstrukte zur makroskopischen und histologischen Untersuchung durch Alzianblau- und Safranin O-Färbungen entnommen.
Der Einfluss von Rotations- und Translationsbewegungen bei kranieller stereotaktischer Radiotherapie
(2013)
Hintergrund: Kranielle Stereotaxie ist ein wichtiges Therapieinstrument zur Behandlung kranieller neoplastischer Läsionen. Mittels bildgeführter Radiotherapie konnten in den vergangenen Jahren Genauigkeit und Komfort der Patientenlagerung essentiell verbessert werden. Folgende Arbeit untersucht die Bedeutung der bildgeführten Patientenlagerung (Image Guidance) in Bezug auf geometrische Unsicherheiten und deren Einfluss auf die dosimetrische Verteilung.
Material und Methoden: In Würzburg wurden zwischen 2006 und 2010, 98 kranielle Läsionen in 71 Patienten radiochirurgisch behandelt. Mittels Cone-Beam CT wurden die Patientenverlagerungen bezogen auf alle 6 Freiheitsgrade vor Behandlungsbeginn (n=98) sowie nach der Therapie (n=64) aufgezeichnet. Aus den Daten für die einzelnen Raumachsen wurde der absolute Versatz (3D-Vektor) sowie maximale Rotation um die resultierende Drehachse berechnet. Die Prae- sowie Posttherapeutische Verlagerungen wurden im Planungssystem simuliert. Für Szenarien mit unterschiedlichen Sicherheitsäumen (0 mm,1 mm, 2 mm) wurde der Ausgleich der Translationen sowie der Rotationen in Bezug auf Dosis-Konformität und Zielabdeckung getrennt untersucht.
Ergebnisse: Der mittlere Prae-IG Versatz betrug 3.96 mm ± 1.89 mm mit einer mittleren maximalen Rotation im Raum von 2,02°±0,84°. Der mittlere Lagerungsfehler nach Therapieende betrug 0,88mm±0,61mm mit einer mittleren maximalen Rotation von 0,65°±0,64°. Die Verlagerung während der Bestrahlung korrelierte signifikant mit der Behandlungszeit (0,7mm±0,5mm für t<23min; 1,2mm±0,7mm für t>23min). Die Simulation der Behandlung ohne IG-Ausgleich zeigte einen Einbruch der Zielabdeckung (Coverage Index) von 96,0%±5,7% auf 72,1%±19,0% und der Konformität (Paddick Conformity Index) von 73,3%±11,1% auf 43,4%±17,8%. Pro 1mm Abweichung nahmen Zielabdeckung sowie Konformität um 6% bzw. 10% ab. Alleiniger Ausgleich der Translationen ohne Rotationen führte zu nicht signifikanten Einbussen. Bewegungen während der Bestrahlung führten zu einem Abfall des CI auf 94,3%±6,8% bzw. des PCI auf 70,4%±10,8%. Ein 1mm Sicherheitssaum genügte um diese Bewegungen zu kompensieren
Schlussfolgerungen: Bildgeführte Radiotherapie ist ein wichtiges Instrument zur Verbesserung der Therapiepräzision. Unter offensichtlichen Voraussetzungen kann auf den prätherapeutischen Ausgleich der rotatorischen Komponente bei kranieller Stereotaxie verzichtet werden. Bewegungen während der Behandlung reduzieren die gewünschte Zielabdeckung sofern dem nicht durch geeignete Sicherheitssäume Rechnung getragen wird.
Da die häufigste Ursache der pathologischen Mamillensekretion ein benigner Prozess ist, sollte die Diagnostik mittels nicht invasiver Verfahren im Vordergrund stehen. Dabei stellt die Kernspintomographie eine wichtige Modalität dar, vor allem wenn die Mammographie und die Mammasonographie keine Befunde zeigen. In dieser Studie wurden Patientinnen mit pathologischer Mamillensekretion mittels MR-Mammographie bei 3,0 Tesla und anschließend mittels Galaktographie untersucht.
Von Juli 2009 bis Juni 2012 wurden 50 Patientinnen in die Studie eingeschlossen, die eine pathologische Mamillensekretion zeigten und einer MR-Mammographie bei 3,0 Tesla zustimmten. Bei allen Studienteilnehmerinnen waren sowohl die Mammographie als auch die Mammasonographie negativ oder zeigten einen unklaren Befund. Weitere Einschlusskriterien waren im Normbereich liegende Nieren- und Prolaktinwerte.
Sechs Patientinnen zeigten einen beidseitigen Ausfluss. Hier wurden beide Brüste in die Studie eingeschlossen, so dass insgesamt 56 Fälle mit einem Durchschnittsalter von 51,2 Jahren (Standardabweichung ± 12,8 Jahre, Median 52,5 Jahre) betrachtet wurden. Ältere Patientinnen zeigten dabei häufiger maligne Ursachen als jüngere, ohne Nachweis eines signifikanten Unterschieds (p = 0,272).
Bei der klinischen Untersuchung war in 44,6% (25/56) ein nicht-blutiger und in 55,4% (31/56) ein blutiger Ausfluss erkennbar. Die Inzidenz der Malignität in der Gruppe der blutigen Sekretion war höher (19,4% vs. 8,0%), jedoch nicht signifikant (p = 0,23). In der Literatur wird davon berichtet, dass bei blutigem Ausfluss das Risiko für ein Mammakarzinom höher ist. Es wird aber auch darauf hingewiesen, dass bei einem nicht-blutigen Ausfluss ein Malignom keinesfalls ausgeschlossen werden kann.
Die häufigste Ursache der pathologischen Mamillensekretion war, wie auch in der Literatur berichtet wird, mit 39,4% ein Papillom. Insgesamt wurde in 14,8% ein Malignom nachgewiesen. Dies ist etwas höher als die vergleichbaren Angaben von 2% - 10% in der Literatur.
Es bestand ein signifikanter, direkt proportionaler Zusammenhang zwischen Größe in der MR-Mammographie und Malignität (p = 0,019). Ein Phänomen, das Liberman et al. ebenfalls beschrieben. Sowohl sie als auch Langer et al. empfehlen somit bei Läsionen, die kleiner als 5 mm sind, aufgrund der geringen Malignomrate auf eine Biopsie zu verzichten. Auch in der vorliegenden Studie waren alle Läsionen < 5 mm benigne.
Zwischen der MR-mammographisch geschätzten Größe und der histopathologisch ermittelten Größe konnte eine signifikant hohe Korrelation gezeigt werden (Korrelationskoeffizient nach Pearson 0,095, p < 0,0001). Dabei wurden die Befunde in der Kernspintomographie tendenziell größer dargestellt. Die gleiche Erfahrung machten auch Son et al. und Schouten van der Velden et al..
Die Ergebnisse der MR-Mammographie wurden mit der danach durchgeführten Galaktographie verglichen. Ein wichtiger Nachteil der Galaktographie zeigte sich in der eingeschränkten Durchführbarkeit. In 23,3% konnte diese nicht erfolgreich beendet werden. In der Literatur wird von ähnlichen Prozentsätzen gesprochen. Zusätzlich erzielten wir im Vergleich zur MR-Mammographie sowohl eine geringere Sensitivität (86% vs. 96%) als auch eine niedrigere Spezifität (33% vs. 70%) für die Galaktographie, was sicherlich auch die Schwierigkeit der Unterscheidung zwischen benignen und malignen Befunden bei einer Galaktographie widerspiegelt. Morrogh et al. verglichen die Galaktographie mit der MR-Mammographie bei 1,5 Tesla ebenfalls bei Patientinnen mit pathologischer Mamillensekretion und negativer Standarddiagnostik. Die von ihnen berichtete Sensitivität von 83% für die MR-Mammographie ist vergleichbar mit der der vorliegenden Studie (75%). Bei 1,5 Tesla erreichten sie allerdings nur eine Spezifität von 62%, die geringer ist als die von uns errechnete Spezifität von 88%. Auch andere Studien referieren eine höhere Spezifität bei höherer Feldstärke.
Um dies allerdings aussagekräftig zu zeigen, muss eine intraindividuelle Studie bei 1,5 Tesla und 3,0 Tesla durchgeführt werden.
Zusammenfassend kann man jedoch sagen, dass die Galaktographie durch die nicht invasive, strahlungsfreie MR-Mammographie bei der Untersuchung von Patientinnen mit pathologischer Mamillensekretion ersetzt werden sollte, insbesondere wenn die Standarddiagnostik keine auffälligen Befunde liefern konnte.
Neurotrophine beeinflussen durch die Modulation von Prozessen wie Zellproliferation, -migration, Apoptose und Synapsenbildung entscheidend die neuronale Plastizität. Sie gelten deshalb als Kandidatengene neuronaler Entwicklungsstörungen wie Autismus-Spektrum-Störungen (ASS). Die vorgelegte Arbeit zielt auf die weitere Klärung der Rolle von Brain Derived Neurotrophic Factor (BDNF) bei der Ätiopathophysiologie der ASS durch Expressionsanalysen im Blut als potenziellem Surrogat zentralnervöser Prozesse.
In gut charakterisierten ASS-Stichproben und - neben gesunden Kontrollprobanden - einer klinischen Kontrollgruppe von Patienten mit Aufmerksamkeitsdefizit-/ Hyperaktivitätsstörung (ADHS) wurde die BDNF-mRNA-Expression in Vollblut sowie BDNF-Proteinserumkonzentrationen untersucht. Zusätzlich wurden mögliche Einflussfaktoren auf die BDNF-Werte wie Alter, IQ, autismusspezifische Symptomatik, Komorbidität und Medikation analysiert.
In einer ersten Stichprobe (ASS-Patienten versus gesunde Kontrollen) wurden
signifikant erniedrigte BDNF-Serumkonzentrationen in der Patientengruppe mittels
Enzyme-Linked-Immunosorbent-Assay gemessen (p = 0,040). In einer zweiten unabhängigen Stichprobe (Patienten mit ASS, Patienten mit ADHS und gesunde Kontrollen) wurde auf mRNA-Ebene mittels quantitativer Real-Time-Polymerasekettenreaktion ebenfalls ein signifikanter Gruppenunterschied ermittelt mit erniedrigter BDNF-Expression in der ASS-Gruppe im Vergleich zu gesunder Kontrollgruppe (p = 0,011), sowie einem Trend zu erniedrigten BDNF-Werten bei ADHS-Patienten im Vergleich zu gesunden Probanden (p = 0,097). Des Weiteren wurde eine signifikante negative Korrelation zwischen Alter und BDNF-mRNA-Expression bei Patienten mit ASS sowie eine positive Korrelation von Alter und BDNF-Serumkonzentrationen bei gesunden Kontrollen gemessen. Auch korrelierten die BDNF-Werte im Serum mit der Ausprägung des autistischen Phänotyps. In einer Subgruppe der ADHS-Patienten wurde kein Einfluss von Psychostimulanzien auf die BDNF-mRNA-Expression gemessen.
Der Einbezug größerer Stichproben sowie die systematische Erfassung weiterer potenzieller Einflussfaktoren auf die BDNF-Expression (wie pubertärer Entwicklungsstand bzw. Geschlechtshormonkonzentrationen) könnten in zukünftigen Studien zu einer weiteren Klärung der pathophysiologischen Rolle von BDNF bei Kindern und Jugendlichen mit ASS beitragen.
Nach einem Myokardinfarkt werden ventrikuläres Remodeling und myokardiale Funktion unter anderem durch die ablaufenden Reaktionen des angeborenen Immunsystems beeinflusst. Von zentraler Bedeutung für die Regulation dieser Immunreaktion ist der Transkriptionsfaktor Nuclear Factor kappa B. Tiere, bei denen NF-κB durch das Fehlen seiner Untereinheit p50 global inaktiv ist, wei- sen einen Schutz vor linksventrikulärem Remodeling auf. Bisher ist jedoch un- klar, welche Zellen für diesen protektiven Effekt verantwortlich sind. Vorange- gangene Studien konnten zeigen, dass die Protektion nicht auf die fehlende NF- κB Aktivierung in Kardiomyozyten zurückzuführen ist. Aus Ischämie- Reperfusions-Experimenten an NF-κB-defizienten Tieren ergaben sich Hinwei- se, dass v.a. die Hemmung von NF-κB in Entzündungszellen die protektiven Effekte vermittelt.
Durch Kreuzung von LysMCre- mit lox-IKKβ-Tieren erzeugten wir Tiere, denen makrophagenspezifisch IκB-Kinase β (IKKβ) fehlt. IKK deaktiviert den Inhibitor von NF-κB und ist somit essentiell für eine NF-κB-Aktivierung. Als Modell der Herzinsuffizienz diente der chronische Myokardinfarkt. Die Nachbeobachtung erfolgte über 56 Tage.
Die Knockout-Tiere (KO) hatten im Vergleich zu den Wildtyp-Tiere (WT) eine signifikant bessere Überlebensrate (KO vs. WT, 100% vs. 49%, p < 0,01). Präoperativ sowie postoperativ an den Tagen 1, 21 und 56 wurden transthora- kale Echokardiographien durchgeführt. Bei gleicher Infarktgröße zeigten die KO-Tiere eine deutlich geringere linksventrikuläre Dilatation. Es konnte moleku- larbiologisch keine Reduktion der humoralen Entzündungsreaktion nachgewie- sen werden, ebenso blieb das Entzündungszellinfiltrat immunhistochemisch unverändert. Auch bezüglich Apoptoserate und Neovaskularisation zeigte sich kein Unterschied zwischen den Gruppen. Allerdings zeigten die LysM-IKKβ-KO-Tiere 56 Tage nach Myokardinfarkt einen deutlich erhöhten septalen Kollagen- gehalt als Hinweis auf ein verändertes extrazelluläres Remodeling.
Aus diesen Ergebnissen kann geschlossen werden, dass die protektiven Effek- te der globalen NF-κB-Hemmung durch die fehlende NF-κB-Aktivierung in Ma- krophagen und Granulozyten, nicht aber in Kardiomyozyten vermittelt wurden. Die durch die makrophagenspezifische NF-κB-Hemmung vermittelten Verände- rungen im Remodeling der extrazellulären Matrix führen zu einer Verbesserung der Überlebensrate, besseren funktionellen Ergebnissen und einem insgesamt verminderten linksventrikulären Remodeling nach Myokardinfarkt.
Der Regierungsbezirk Unterfranken, das Untersuchungsgebiet des Sprachatlas von Unterfranken (SUF), ist dialektologisch dadurch gekennzeichnet, dass durch ihn von Südwesten nach Nordosten (Spessart, Rhön) die Grenze zwischen dem Oberdeutschen und dem Mitteldeutschen verläuft. Diese Grenze wird im nördlichen Teil Rhönschranke genannt. Allerdings gibt es keine scharfen Dialektgrenzen, sondern nur Übergangsgebiete zwischen zwei dialektalen Kernräumen. Übergangsgebiete sind dadurch gekennzeichnet, dass Merkmale eines (Kern-)Raums ab- und die des anderen zunehmen. Auf der Basis des SUF-Materials wird dieses Übergangsgebiet beschrieben und dialektgeographisch interpretiert.
Das multiple Myelom ist trotz intensiver Forschung eine bisher unheilbare maligne Plasmazellerkrankung. Für jüngere Patienten ohne relevante Komorbiditäten ist die Behandlung mit einer Hochdosistherapie gefolgt von einer autologen Stammzelltransplantation der Goldstandard. Bei einer geringen Rate an therapiebedingter Mortalität erzielt diese eine hohe Rate an kompletten Remissionen und damit die Wahrscheinlichkeit für ein längeres Überleben. Um die optimale Konditionierungstherapie zu finden, wurde eine Vielzahl von Chemotherapeutika, teilweise gekoppelt mit Ganzkörperbestrahlung, getestet.
In dem in dieser Dissertation schwerpunktmäßig analysierten Langzeit-Datensatzes der „DSMM I“-Studie erfolgte der prospektive Vergleich einer Doppelhochdosis-Chemotherapie mit Melphalan und zweimaliger autologer Stammzelltransplantation und einer Einfachhochdosis-Therapie mit modifizierter Ganzkörperbestrahlung, Busulfan und Cyclophosphamid und einfacher autologer Stammzelltransplantation. Es wurde untersucht, ob sich eines der beiden Konditionierungsschemata hinsichtlich des ereignisfreien Überlebens, des Gesamtüberlebens, des maximalen Ansprechens auf die Therapie oder der Toxizität überlegen zeigte. Bisher publizierte Studien wiesen einen Vorteil der Tandem-Hochdosistherapie gegenüber der Einfachhochdosis-Therapie nach. In dieser Studie hatten beide Therapiegruppen ein exzellentes Gesamtüberleben. Es zeigte sich jedoch keine Überlegenheit einer der Therapien für das ereignisfreie und Gesamtüberleben, trotz signifikant höherer Ansprechrate unter Melphalan. Nach modifizierter Ganzkörperbestrahlung war, wie bereits in anderen Studien beschrieben, die Rate an Nebenwirkungen signifikant erhöht. Die Patienten litten vor allem unter Mukositis, Schmerzen und Pneumonitis. Somit ist die Doppelhochdosistherapie mit Melphalan Therapie der Wahl.
Die mediane Nachbeobachtungszeit von knapp 7 Jahren ist im Gegensatz zu vielen anderen Publikationen sehr viel länger als das mediane ereignisfreie Überleben. Dies spricht für die Validität der Daten.
Als erste kommerziell verfügbare Technologie der Quanteninformation ermöglicht die Quanten-Schlüsselverteilung eine sichere Datenübertragung indem einzelne Photonen oder quantenmechanisch verschränkte Photonenpaare zur Erzeugung eines Schlüssels verwendet werden. Die hierfür benötigten nicht-klassischen Photonen-Zustände können durch Halbleiter-Quantenpunkte erzeugt werden. Im Gegensatz zu anderen Quanten-Emittern wie isolierten Atomen, organischen Molekülen oder Fehlstellen in Diamantnanokristallen bieten diese zudem den Vorteil, direkt in komplexe Halbleiter-Mikrostrukturen integriert werden zu können. Quantenpunkte sind somit prädestiniert für die Entwicklung neuartiger optoelektronischer Bauelemente auf einer skalierbaren Technologieplattform.
Vor diesem Hintergrund werden in der vorliegenden Arbeit die Eigenschaften elektrisch gepumpter Quantenpunkt-Mikrostrukturen untersucht. Als optisch aktives Medium dienen dabei selbstorganisierte InAs/GaAs-Quantenpunkte. Die Zielsetzung ist die Erzeugung nicht-klassischen Lichts für Anwendungen in der Quantenkommunikation, wobei ein besonderer Fokus auf dem elektrischen Betrieb der entsprechenden Quantenlichtquellen liegt. Dabei werden sowohl ausgeprägte Resonatoreffekte im Regime der schwachen Licht-Materie-Wechselwirkung ausgenutzt, um helle Einzelphotonenquellen zu realisieren, als auch die Eigenschaften korrelierter Photonenpaare zweier spektral separierter Quantenpunkt-Zustände analysiert. Als Untersuchungsmethode wird in erster Linie die spektral und zeitlich hochauflösende Mikro-Lumineszenz-Spektroskopie bei kryogenen Temperaturen eingesetzt. Zudem erfolgen Experimente zur Photonenstatistik anhand von Messungen der Auto- sowie Kreuzkorrelationsfunktion zweiter Ordnung. Wie im Folgenden aufgeführt, gelingt dabei der Bogenschlag von grundlegenden Untersuchungen an Quantenpunkt-Mikrostrukturen bis hin zur erstmaligen Implementierung elektrisch getriggerter Quantenpunkt-Einzelphotonenquellen in realistischen Experimenten zur Quanten-Schlüsselverteilung außerhalb einer geschützten Laborumgebung.
Elektrisch getriggerte Einzelphotonenquellen:
Für die Erzeugung elektrisch getriggerter, einzelner Photonen wurden Quantenpunkte in Mikroresonatoren eingebettet. Diese basieren auf dotierten, zylindrischen Fabry-Pérot Mikrosäulenresonatoren, deren Design bezüglich der Photonen-Auskoppeleffizienz optimiert wurde. […] Anhand von Messungen zur Photonenstatistik konnte für diese spektral resonant gekoppelten Quantenpunkt-Mikroresonatorsysteme sowohl unter kontinuierlicher- als auch unter gepulst-elektrischer Anregung Einzelphotonen-Emission nachgewiesen werden. […] Anhand einer eingehenden Analyse der Emissionsraten sowie der elektrischen Injektionseffizienzen bei Anregungs-Repetitionsraten von bis zu 220 MHz konnte gezeigt werden, dass die untersuchten Mikroresonatoren zudem als äußerst effiziente, elektrisch getriggerte Einzelphotonenquellen eingesetzt werden können. Sowohl bezüglich der Einzelphotonen-Emissionsraten von bis zu (47,0+/-6,9) MHz als auch der Gesamteffizienz der Bauteile bis hin zu (34+/-7) % konnten dabei Rekordwerte erzielt werden.
Korrelierte Photonenpaare elektrisch gepumpter Quantenpunkte:
[…]
Quanten-Schlüsselverteilung mit elektrisch getriggerten Einzelphotonenquellen:
Ausgehend von den grundlegenden Untersuchungen dieser Arbeit, erfolgte die erstmalige Implementierung elektrisch getriggerter Quantenpunkt-Einzelphotonenquellen in Experimenten zur Quanten-Schlüsselverteilung. Basierend auf den eingehend analysierten Quantenpunkt-Mikroresonatoren, wurden dabei zwei Experimente in Freistrahloptik mit unterschiedlichen Übertragungsdistanzen durchgeführt. In beiden Fällen wurde ein BB84-Protokoll nachgeahmt, indem auf die einzelnen Photonen eine feststehende Abfolge von vier unterschiedlichen Polarisationszuständen aufmoduliert wurde. Das erste Experiment, durchgeführt im Labormaßstab in Würzburg, basierte auf einem Quantenkanal mit einer Länge von etwa 40 cm und arbeitete bei einer Taktrate von 183 MHz. Die höchste dabei erzielte ausgesiebte Schlüsselrate (engl. sifted-key rate) betrug 35,4 kbit/s bei einem Quanten-Bitfehlerverhältnis (QBER) von 3,8 %. Der Einzelphotonen-Charakter der Emission innerhalb des Quantenkanals konnte jeweils eindeutig nachgewiesen werden […].
Das zweite Experiment zur Quanten-Schlüsselverteilung wurde mittels zweier Teleskope über eine Distanz von 500 m in der Münchner Innenstadt zwischen den Dächern zweier Gebäude der Ludwig-Maximilians-Universität realisiert. […] Bei einer Taktrate von 125 MHz konnte mit diesem System im Einzelphotonen-Regime eine maximale sifted-key rate von 11,6 kbit/s bei einem QBER von 6,2 % erzielt werden. Diese erstmalige Implementierung elektrisch betriebener, nicht-klassischer Lichtquellen in Experimenten zur Quanten-Schlüsselverteilung stellt einen wichtigen Schritt hinsichtlich der Realisierung effizienter und praktikabler Systeme für die Quantenkommunikation dar.
A l’heure où le monde moderne est secoué par la crise environnementale, il se pose la question de son impact sur les populations d’Afrique noire qui conjuguent dans un même élan la relation à la nature et la loi de la société dans sa dimension intérieure et extérieure et dont les croyances tournent autour de l’environnement, qui édicte des normes de compréhension des valeurs et de la signification de l’existence humaine.
Par ailleurs, le Négro-africain appréhende les choses dans leur globalité interactive sur tous les registres: environnement et société, monde visible et invisible, naturel et surnaturel, etc. L’homme est intégré à l’univers par la médiation du milieu naturel qui le porte, le nourrit, le soigne, l’habille et l’oriente. En effet, il existe dans la cosmovision négro-africaine, des profondeurs fondamentales qui rendent compte à l’Absolu des attitudes face à la vie, à la terre, à la nature, aux végétaux, aux minéraux, aux animaux et aux humains. L’environnement oriente toute sa vie. Le milieu naturel détermine les attitudes profondes, les croyances, les comportements et les pratiques sociales ; le mode vie et les systèmes de penser ainsi que les représentations mentales des individus et des groupes sociaux, qui fournissent, à leur tour, un théâtre à l’action, un idéal ou un archétype de ce que signifie la vie, laquelle s’articule autour de la nature et la société. Dans ce sens, la crise environnementale interpelle devait devenir partie de l’annonce voire de l’inculturation de la de la Bonne Nouvelle sur ce continent.
Verschiedene historische und geographische Faktoren führten zur geschichtlichen Kontinuität
der Existenz der Stadt Arrapḫa über etwa 4000 Jahre bis hin zum heutigen Kirkuk. Darunter zählen
besondere Vorteile der Standortwahl der ursprünglichen Siedlung1117, welche heute als Zitadelle von
Kirkuk bezeichnet wird. Eine künftige archäologische Ausgrabung in der Zitadelle von Kirkuk
mithilfe der überlieferten Quellen aus den genannten Perioden lässt sicherlich ein genaues Bild über
die Struktur der Stadt geben.
Hintergrund: Bei der Einleitung einer Narkose eines nicht-nüchternen Patienten wird das Relaxanz in unmittelbarer Folge zum Induktionsmittel appliziert. Welches der Hypnotika Propofol, Etomidat oder Methohexital führt am schnellsten zur ausreichend tiefen Narkose?
Material/Methoden: Standardisierte Narkoseinduktion, je 20 ASA1/2 Patienten pro Medikament. Bestimmung Schlaftiefe mittels CSI: 1. vor Beginn , nach Midazolamgabe, 2. zwei Min. nach Fentanylgabe, 3. direkt nach Gabe des Hypnotikum (Dauer Injektion 1Min.), 4. nach 1 Min.
Propofol 3 mg/kg KG, Etomidat 0,3 mg/kg KG, Methohexital 1 mg/kg KG. Fentanyl 3 µg/kg KG, Midazolam 7,5mg
Ergebnisse: CSI direkt nach Injektion bei Methohexital mit 70,80 (+/-13,93) niedriger (p=0,024) als bei Propofol mit 81,05 (+/-10,82) und als bei Etomidat (p=0,026) mit 81,45 (+/-12,04). Abnahme des CSI während der Injektion bei Methohexital mit -9,6 (+/-12,14) größer (p=0,006) als bei Propofol mit –0,1 (+/-8,31). CSI <60 direkt nach Injektion bei Propofol 2x, Etomidat 3x, Methohexital 4x , nach einer Minute Propofol 17x, Etomidat 10x, Methohexital 16x.
Schlussfolgerung: Methohexital ermöglicht eine schnellere Narkoseinduktion als Etomidat und Propofol.
Um die Nachhaltigkeit und die flächendeckende Präsenz der Religion in der Menschheitsgeschichte zu erklären, wird in dieser Arbeit durch die Untersuchung des Verhältnisses des Religionsphänomens zum Wesen des Menschen nach einer intrinsischen Verbindung gesucht. Die Arbeit beginnt mit der Explikation des Religionsbegriffs. Hier war versucht die Möglichkeit, die Notwendigkeit und den Zweck des nomen collectivum „Religion“ – Religion im universellen Sinn - und dessen Definierung zu begründen. Die Erklärung setzt mit der etymologischen Untersuchung des Begriffs fort, in der festgestellt wurde, dass das von Cicero vorgeschlagene „re-legere“ dem Religionsphänomen am nächsten steht, da es durch die Hervorhebung des Akts der „Wiederholung“ die Handlung des Menschen zum Kern des Religionsphänomens macht. Um den Rahmen dieses Phänomens definieren zu können würden zwei Grenzfälle – den Buddhismus und die Esoterik untersucht und erörtert. Es folgte die Erklärung der Grundelemente der Religion: die Metaphysik, der Glaube, der Kult und die Moral.
Danach wurde das Wesen des Menschen im Hinblick auf sein Verhältnis zum Religionsphänomen untersucht. Hervorgehoben wurde hier die Grundbedürftigkeit des Menschen, der Seinsmangel, der sich teilweise in der Sinnfrage zum Ausdruck bringt. In diesem Zusammenhang wurde auch das Sein-Wollen des Menschen als der Ur-Anlass der Religion erörtet.
Schließlich wurde versucht einen Zusammenhang zwischen der Sinnfrage als Ausdruck des Seinsmangels des Menschen und der Religion als Heilsweg und als Reaktion des Menschen auf beide herzustellen.
In der Dissertationsschrift wird der Einfluss von Kosten, Steuern und Sterblichkeit auf die Vorteilhaftigkeit der Riester-Rente aus einzelwirtschaftlicher Perspektive modelltheoretisch untersucht. Die Arbeit ist dabei zweigeteilt. Während sich der erste Teil insbesondere mit den Auswirkungen von Kosten in der Ansparphase der Riester-Rente und damit auf die Investitionsentscheidung eines Riester-Sparers beschäftigt, wird im zweiten Teil im Speziellen die Auszahlungsphase unter besonderer Berücksichtigung von Sterblichkeitsaspekten behandelt.
Im Detail lassen sich die wichtigsten Ergebnisse der Hauptkapitel im jeweils gewählten Modellrahmen wie folgt thesenartig zusammenfassen:
Aufgrund der staatlichen Förderungen und der Reglementierung bezüglich der Verrechnung der Abschluss- und Vertriebskosten im AltZertG erweisen sich eine klassische Riester-Rentenversicherung sowie ein Riester-Banksparplan auch bei Einbezug von Kosten direkt vergleichbaren, ungeförderten Anlagealternativen überlegen (Kapitel 3).
Die Doppelbelastung mit Einmalkosten im Zeitpunkt des Vertragsabschlusses sorgt dafür, dass der Wechsel eines Riester-Anbieters nur bei entsprechend hohen Kostenentlastungen beim Neuanbieter vorteilhaftig ist (Kapitel 4). Bei einer klassischen Riester-Rentenversicherung sind hierfür prozentual gesehen wesentlich höhere Entlastungen erforderlich als bei fondsgestützten Anlageprodukten. Die Einführung eines Kostenkoeffizienten unterstützt den Anleger bei der Wechselentscheidung nur in der Produktart der klassischen Rentenversicherungen, den fondsgestützten Produkten lässt sich aufgrund der Wechselwirkung zwischen übertragenem Vermögen und Kosten kein eindeutiger Koeffizient zuordnen.
Unter der Annahme vollständiger Sicherheit auf Seiten des Anlegers kann ein kritischer Kapitalmarktzinssatz berechnet werden, oberhalb dessen eine schädliche Verwendung des angesparten Riester-Vermögens einer rentenförmigen Auszahlung vorgezogen wird (Kapitel 7). Eine Verwendung des geförderten Vermögens für die Altersvorsorge ist somit letztlich nicht garantiert. Je jünger dabei der Anleger im Zeitpunkt des Vertragsabschlusses ist, desto geringer fällt der kritische Kapitalmarktzins aus.
Wird ein risikoneutraler Anleger unterstellt, dessen individuelle Sterblichkeit dem vom Statistischen Bundesamt prognostizierten Bevölkerungsdurchschnitt entspricht, so ist die Riester-Rente aufgrund der langen Förderungsdauer besonders für junge Anleger der Unterlassensalternative überlegen (Kapitel 8). Allerdings zieht die Mehrzahl der untersuchten Anleger, deren Sterblichkeit im Bevölkerungsdurchschnitt liegt, eine schädliche Verwendung des Riester-geförderten Altersvorsorgevermögens einer gesetzlich vorgeschriebenen, rentenförmigen Kapitalisierung vor.
Sozioökonomische Faktoren beeinflussen in Abhängigkeit von der tatsächlichen Ausprägung der Sterblichkeitsdifferenzen entscheidend die Vorteilhaftigkeit der Riester-Rente (Kapitel 9). Neben der geringeren finanziellen Bildung und der Anrechnung der Rentenleistungen aus der Riester-Anlage auf die Grundsicherung im Alter kann dies als Erklärungsansatz dafür herangezogen werden, dass Gering-verdiener in der Grundgesamtheit der Riester-Sparer eher unterrepräsentiert sind.
Während Going Private Transaktionen beispielsweise in den USA oder auch in Deutschland theoretisch und empirisch in vielerlei Hinsicht untersucht wurden, existieren für den Schweizer Kapitalmarkt keine umfassenden empirischen Analysen. Da Minderheitsaktionäre von vielen Kapitalmarktteilnehmern häufig als lästig empfunden werden, wurde aber auch in der Schweiz schon immer nach Möglichkeiten gesucht, um sich einer unliebsamen Minderheit zu entledigen. Am Beispiel der Übernahme der Jacobs Suchard AG zeigt, dass Minderheitsaktionäre in der Schweiz in der Vergangenheit wenig Schutz genossen. Das am 1. Januar 1998 in Kraft getretene Börsengesetz soll dafür Sorge tragen, dass es zumindest bei Übernahmeangeboten nicht mehr zu einer groben Missachtung der Interessen der Minderheitsaktionäre kommt. Es bietet einem Mehrheitsaktionär die Möglichkeit, den vollständigen Ausschluss der Minderheitsaktionäre mit Hilfe eines Kraftloserklärungsverfahrens der restlichen Beteiligungspapiere im Anschluss an ein öffentliches Übernahmeangebot zu realisieren. Ob dieses Regelwerk allerdings ausreicht, um den Minderheitenschutz beim Auskauf des Streubesitzes zu gewährleisten, soll in der vorliegenden Arbeit empirisch überprüft werden. Im Mittelpunkt steht dabei die Frage, ob die Aktionäre der Zielgesellschaft einen angemessenen Preis für ihre Beteiligungspapiere erhalten. Um diese Frage zu beantworten, werden zuerst alle öffentlichen Übernahmeangebote, die dem Börsengesetz unterworfen sind und die zwischen 1998 und 2008 lanciert wurden, identifiziert. Um die Frage der Angemessenheit der Angebotspreise zu beantworten, werden zunächst die offerierten Übernahmeprämien ermittelt und anhand der unterschiedlichen Angebotsmerkmale miteinander verglichen. Daran schließt sich eine Analyse der Kursreaktionen auf die Ankündigung eines öffentlichen Übernahmeangebots an. Die Richtung der Kursreaktion zeigt, inwieweit die Aktionäre erwarten, dass das Angebot zu einer Erhöhung des Wertes ihrer Anteile beiträgt. Anhand dieser beiden Analysen kann untersucht werden, ob sich ein Übernahmeangebot positiv oder negativ auf die Aktionäre der Zielgesellschaft auswirkt.
Wachstum und Charakterisierung von Quantenpunkt-Mikrotürmchen mit adiabatischer Modenanpassung
(2013)
Verschiedene Konzepte zur Realisierung einer geeigneten Umgebung für Licht-
Materie-Wechselwirkung konkurrieren um Anerkennung und eine ständige Optimierung
der Systemparameter findet statt. Das Konzept von Mikrotürmchen scheint
prädestiniert, da es viele anwendungsfreundliche Eigenschaften in sich vereint. Allerdings
stellt die drastische Abnahme des Q Faktors für kleiner werdende Durchmesser
d einen wesentlichen Limitierungsfaktor dieser Strukturen dar. Für viele Anwendungen
resultiert daraus ein Kompromiss aus hohem Q Faktor und kleinem
Modenvolumen der Strukturen, wodurch das volle Potential des Resonatorsystems
nicht ausgeschöpft werden kann. Ziel dieser Arbeit war es, die drastische Abnahme
des Q Faktors von Mikrotürmchen mit Durchmessern um 1μm aufzuheben und
dadurch Resonatoren mit d < 1μm für ausgeprägte Licht-Materie-Wechselwirkung
herzustellen.
Dazu wurde erstmalig beabsichtigt eine Modenanpassung in Mikrotürmchen vorgenommen.
Mittels Molekularstrahlepitaxie konnte eine Übergangsregion, bestehend
aus drei Segmenten, in diese Strukturen implementiert und so ein adiabatischer
Modenübergang zwischen der aktiven Mittelschicht und den Spiegelbereichen
vorgenommen werden. Der positive Einfluss dadurch ergab sich in einer signifikanten
Verbesserung des gemessenen Q Faktors für Durchmesser unter 1μm.
Für d = 0.85μm konnte ein Q Faktor von 14 400 bestimmt werden. Dies stellt damit
den höchsten je gemessenen Wert für Mikrotürmchen im Submikrometerbereich
dar. Dadurch wird ein Bereich mit Modenvolumina < 3 kubischen Wellenlängen erschlossen und ausgeprägte Wechselwirkungseffekte im Mikrotürmchensystem sind zu erwarten. Starke
Quantenpunkt-Licht-Kopplung konnte in diesen Strukturen nachgewiesen werden.
Die höchste Vakuum-Rabiaufspaltung betrug 85μeV und die Visibilität wurde zu
0.41 bestimmt. Im Zuge der weiteren Optimierung der Systemparameter für die starke
Kopplung wurde ein ex-situ Ausheilschritt auf die verwendete Quantenpunktsorte
angewendet. In magnetooptischen Untersuchungen konnte damit eine Verdopplung
der mittleren Oszillatorstärke auf einen Wert von 12 abgeschätzt werden.
Weiter konnte in adiabatischen Mikrotürmchen über einen großen Durchmesserbereich
von 2.25 bis 0.95μm eindeutiger Laserbetrieb des Quantenpunktensembles
nachgewiesen werden. Dabei konnte eine kontinuierliche Reduzierung der Laserschwelle
von über zwei Größenordnungen für kleiner werdende Durchmesser beobachtet
werden. Für Durchmesser < 1.6μm betrug der Beta-Faktor der Mikrolaser in
etwa 0.5. Sie zeigten damit beinahe schwellenloses Verhalten.
Zuletzt wurde der elektrische Betrieb von adiabatischen Mikrotürmchen gezeigt. Dafür
wurde eine dotierte Struktur mit adiabatischem Design hergestellt. Im Vergleich
zur undotierten Struktur fielen die gemessenen Q Faktoren in etwa um 5 000 geringer
aus. Die spektralen Eigenschaften sowohl des Resonators als auch einzelner
Quantenpunktlinien zeigten vernachlässigbare Abhängigkeit der Anregungsart (optisch
oder elektrisch) und zeugen von einem erfolgreichen Konzept zum elektrischen
Betrieb der Bauteile. Zeitaufgelöste Messungen erlaubten die Beobachtung von interessanten
Dynamiken der Rekombination von Ladungsträgern in den Proben. Als
Ursache dafür wurde ein hohes intrinsisches Feld, welches auf Grund des Designs
der Schichtstruktur entsteht, identifiziert. Weiter zeigte sich, dass sich das interne
Feld durch Anregungsart und extern angelegte Spannungen manipulieren lässt.
Zur Erhöhung der mechanischen Stabilität mineralischer Knochenzemente aus Calciumorthophosphaten (CPC) wurde in einem TTCP/DCPA-System das Zementedukt TTCP mit verschiedenen biokompatiblen Oxiden (SiO2, TiO2, ZrO2) während des Herstellungsprozesses dotiert. Dies führte zur Bildung von Calciummetallaten und einer Herabsetzung der Löslichkeit der TTCP-Komponente des Zements. Gegenüber einem oxidfreien Zement konnte die Druckfestigkeit von 65 MPa auf 80 MPa (SiO2) bzw. 100 MPa (TiO2) gesteigert werden.
In einem zweiten Ansatz zur Verbesserung der Injizierbarkeit wurden die Wechselwirkungen der Partikeloberflächen mit der flüssigen Zementphase betrachtet. Durch biokompatible Additive sollte eine repulsive elektrostatische Wechselwirkung eingestellt werden, um Partikelagglomerate effektiv zu dispergieren und eine verflüssigende Wirkung zu erreichen. Die Injizierbarkeit eines TTCP/DCPA-Zements durch eine Kanüle mit 800 µm Durchmesser konnte durch die Verwendung von 500 mM tri-Natriumzitrat-Lösung aufgrund einer deutlichen Herabsetzung der Viskosität der Zementpaste signifikant gesteigert werden (>95%, P/L 3,3/1, Kraftaufwand 20 N).
Abschließend wurde der Einfluss der Partikelgrößenverteilung auf die Festigkeit und Injizierbarkeit einer auf monomodaler Partikelgrößenverteilung basierten Zementmatrix untersucht. Hierzu wurden einem mechanisch aktivierten a-TCP-System unreaktive, feinkörnige Füllstoffpopulationen (TiO2, CaHPO4, CaCO3) zugesetzt und systematisch deren Effekt in Verbindung mit einer Partikelaufladung durch tri-Natriumzitrat auf die rheologischen und mechanischen Eigenschaften untersucht.
Erst die Kombination einer bimodalen Partikelgrößenverteilung mit tri-Natriumzitrat-Lösung führte zu einer starken Erniedrigung der Viskosität, damit zur nahezu vollständigen Injizierbarkeit der Zemente und einer teilweise signifikanten Steigerung der mechanischen Festigkeiten (z.B. 72 MPa reiner a-TCP-Zement auf 142 MPa mit Zusatz von CaHPO4).
Osteoporose ist einer der häufigsten Knochenerkrankungen im fortschreitenden Alter und zählt, aufgrund der damit verbundenen hohen direkten und indirekten Behandlungskosten, zu einer der zehn wichtigsten volkswirtschaftlichen Krankheiten. Die Behandlung der Osteoporose ist langjährig und umfasst eine medikamentöse Therapie auf der Basis einer „knochengesunden“ Lebensweise hinsichtlich Ernährung und Bewegung. Im Rahmen von Untersuchungen zur Linderung von postmenopausalen Beschwerden, zeigte ein Extrakt der Pflanze Cimicifuga racemosa Potential zu osteoprotektiver Wirksamkeit und rückte somit in den Fokus für eine mögliche Anwendung in der Therapie und Prophylaxe von Osteoporose. Das Ziel der vorliegenden Arbeit war es daher, in enger Zusammenarbeit mit der Bionorica SE, welche für die Aufreinigung und Fraktionierung des Pflanzenextraktes zuständig war, und mit der Arbeitsgruppe um Prof. Wuttke, welche parallele Rattenstudien durchführte, Methoden anzuwenden, mit denen osteoprotektive Wirksamkeiten nachgewiesen und auf einzelne Fraktionen des Extraktes limitiert werden können. ...
The subject of this work was to develop, implement, optimize and apply methods for quantitative MR imaging of tumors. In the context of functional and physiological characterization, this implied transferring techniques established in tumor model research to human subjects and assessing their feasibility for use in patients. In the context of the morphologic assessment and parameter imaging of tumors, novel concepts and techniques were developed, which facilitated the simultaneous quantification of multiple MR parameters, the generation of “synthetic” MR images with various contrasts, and the fast single-shot acquisition of purely T2-weighted images.
Ergebnisse einer retrospektiven Studie an der Universität Würzburg:
Patienten und Methoden:
In einer retrospektiven Studie wurden Einflussfaktoren auf die Lokoregionäre Kontrolle, das Gesamtüberleben und das rezidivfreie Überleben von 106 Patienten, mit histologisch gesicherten Oropharynxkarzinomen (28 T1, 46 T2, 25 T3 und 7 T4 Tumore, mit lymphatischer Beteiligung in 78 Fällen), mit uni- und multivariaten Analysen untersucht.
Das mediane Alter bei Primärdiagnose betrug 55 Jahre. Es wurde eine mediane Nachbeobachtungszeit 36 Monaten erreicht (zwischen 5 bis 126 Monate). In 18 Fällen (17%) konnte der Primärtumor in sano entfernt werden (Sicherheitsabstand > 3mm). In 34 Fällen (32%) bestand ein knapper Sicherheitsabstand (definitionsgemäß < als 3mm) und in 54 Fällen (51%) waren die Resektatränder nicht frei von Tumorzellen (R1 Resektion). Patienten, welche eine Chemotherapie aufgrund des erhöhten Rezidivrisikos erhielten, machten 24% (25 Patienten) des Patientenkollektivs aus.
Behandlungskonzept
Das Tumorbett des Primärtumors und die zervikalen lymphatischen Abflussgebiete erhielten mediane Bestrahlungsdosen von 56 Gy (2 Gy/ Behandlung, 5 Fraktionen pro Woche). Patienten mit R0-Resektion erhielten Bestrahlungsdosen von 56-60Gy. Bei Patienten mit knappen Resektatrand wurde das Tumorbett mit einer höheren Dosis von 60-66Gy bestrahlt, R1 Resektionen wurden mit einer Boost-Aufsättigung bis zu einer Gesamtdosis von 66-70 Gy behandelt. Patienten im UICC-Stadium 4, mit erhöhtem Rezidivrisiko, machten 24% (25 Patienten) des Patientenkollektivs aus. Diese Patienten erhielten je nach Nierenfunktion und Blutbild eine zusätzliche Chemotherapie mit Cisplatin (40mg/m² wöchentlich) in 1-4 Zyklen, sowie eine Boost-Aufsättigung des Tumorbettes bis zu einer Gesamtdosis von 66-70 Gy.
Ergebnisse der univariaten Analysen mittels Kaplan-Maier Plot Verfahren:
lokoregionäre Kontrolle
Mit einer medianen Nachbeobachtungszeit von 36 Monaten wurde eine 5 Jahres Rezidivfreiheit bei 87% der Patienten erzielt. Davon wurden 80% der Rezidive innerhalb der ersten 24 Monate diagnostiziert. Bei Patienten mit R0 Status wurde in 16,7 % ein Rezidiv diagnostiziert, bei Patienten mit R1 Situation in 17% und bei Patienten mit knappen Resektatrand wurde nur in 6 % ein Rezidiv diagnostiziert. Als statistisch signifikanter Einflussfaktor des Rezidiv erwies sich nur das Gesamttumorvolumen.
Gesamtüberlebensrate
Es wurde eine 3- und 5- Jahresüberlebensrate von 75% und 66% erreicht.
Die 5JÜR bezüglich der Radikalität der Resektion erreichte bei R0 Resektion 61%, 71% bei Patienten mit knappen Resektatrand und 65% bei R1 Situation.
Bei Patienten mit einem T1 Tumorstadium ergab sich eine 5JÜR von 82%, bei T2 67%, bei T3 52% und für Patienten im T4 Stadium ergab sich eine 5JÜR von 43 %.
Patienten mit N0-Status verzeichneten eine 5JÜR von 68%, mit N1-Status 82%, N2a,b-Status 68%, N2c-Status 36% und N3-Status ergab 43%.
Patienten ohne adjuvante Chemotherapie erzielten eine 5JÜR von 69% und Patienten, die aufgrund des erhöhten Rezidivrisikos eine Chemotherapie erhielten, erreichten 56%.
Die Einflussgröße der Rezidiventwicklung erbrachte eine 5JÜR von 13%, wogegen sie bei Patienten ohne Rezidiv 75% betrug.
Patienten, welche einen 2. Tumor entwickelten, verzeichneten eine 5JÜR von 45% gegenüber 71% bei Patienten ohne 2.Tumor.
Der Vergleich der Bestrahlungsdosen im Tumorbett ergab, dass Patienten mit einer Gesamtdosis unter/gleich 66Gy eine 5JÜR von 71% erreichten und 62% bei Gesamtdosen über 66Gy.
Die 5JÜR bezüglich des Tumorvolumens des Primärtumors, inklusive der befallenen Lymphknoten, erbrachte in der ersten Gruppe von unter 10ml Tumorvolumen 77%, von 10 bis 20ml 83%, von 20 bis 50ml 52% und in der vierten Gruppe mit über 50ml Tumorvolumen 33%.
Mit einem Grading von 2 wurde 69% und mit einem Grading von 3 wurde bei Patienten eine 5JÜR von 61% berechnet.
In der univariaten Analyse mittels des Kaplan-Maier-Plot-Verfahrens, zeigte sich in der 5-Jahres Überlebenskurve eine Signifikanz der Einflussgrößen Tumorstadium (p-Wert 0,003), Rezidivereignis (p-Wert 0,000), 2.Tumor (p-Wert 0,001) und Tumorvolumen (p-Wert 0,000).
Rezidivfreies Überleben
Das rezidivfreie Überleben betrug nach 3 Jahren 68% und nach 5 Jahren 64%.
Bezüglich der Radikalität der Resektion ermittelte man für Patienten mit R0 Resektion nach 5 Jahren ein rezidivfreies Überleben von 61%, 71% bei knappen Resektatrand und 61% bei R1 Situation.
Patienten mit einem T1 Stadium erreichten ein 5 jähriges rezidivfreies Überleben in 82%, mit T2 Stadium 67%, mit T3 Stadium 48% und Patienten im T4 Tumorstadium erzielten 43 %.
Patienten mit N0-Status verzeichneten ein 5 jähriges rezidivfreies Überleben von 64%, mit N1-Status 82%, N2a,b-Status 68%, N2c-Status 27% und ein N3-Status ergab 43%.
Patienten ohne adjuvante Chemotherapie erreichten in 68% und Patienten, welche eine Chemotherapie erhielten, erreichten ein 5 jähriges rezidivfreies Überleben in 52%.
Patienten, welche einen 2. Tumor entwickelten, verzeichneten eine 5 jähriges rezidivfreies Überleben von 45%, gegenüber 68% bei Patienten ohne 2.Tumor.
Die Gegenüberstellung der Bestrahlungsdosen im Tumorbett ergab, dass Patienten mit einer Gesamtdosis unter/gleich 66Gy ein rezidivfreies 5-jähriges Überleben von 69% erreichten, hingegen Patienten mit mehr als 66Gy Bestrahlungsdosis 60% erzielten.
Das 5 jährige rezidivfreie Überleben in Bezug auf das Tumorvolumen des Primärtumors, inklusive der befallenen Lymphknoten, erbrachte in der ersten Gruppe von unter 10ml Tumorvolumen 77%, von 10 bis 20ml 79%, in der dritten Gruppe von 20 bis 50ml 48% und in der vierten Gruppe mit über 50ml Tumorvolumen wurde nach 5 Jahren ein rezidivfreies Überleben von 33% verzeichnet.
Mit einem Grading von 2, wurde 66% und mit einem Grading von 3 ergaben sich für die Patienten ein 5 jähriges rezidivfreies Überleben von 61%.
In der univariaten Analyse mittels des Kaplan-Maier-Plot-Verfahren, zeigte sich in der Kurve für das 5-jährige rezidivfreie Überleben, eine Signifikanz der Einflussgrößen Tumorstadium (p-Wert 0,003), Lymphknotenstatus (p-Wert 0,048), Chemotherapie (p-Wert 0,047), 2.Tumor (p-Wert 0,003) und Tumorvolumen (p-Wert 0,000).
Ergebnisse der multivarianten Analysen
In einer multivariaten Cox-Regressions Analyse erwiesen sich die Einflussgrößen des Tumorstadiums und die Entwicklung eines 2. Tumors, bezüglich des Gesamt- und des rezidivfreien Überlebens, als statistisch signifikant.
Das Tumorstadium konnte, in Bezug auf das Gesamtüberleben, eine Signifikanz von 0,015 ermittelt werden. Im Hinblick auf das rezidivfreie Überleben konnte ihm eine Signifikanz von 0,03 zugeschreiben werden. Die Einflussgröße des 2.Tumors ergab für das Gesamtüberleben eine Signifikanz von ebenfalls 0,015 und eine Signifikanz von 0,025 bezüglich des rezidivfreien Überlebens.
Schlussfolgerung:
Mit dem Therapiekonzept konnte eine Verbesserung der 5JÜR und des 5-jährigen rezidivfreien Überlebens erzielt werden. Die Patienten mit knappen Resektatrand wiesen durchweg bessere Ergebnisse auf als Patienten mit R0-Resektion. Als Konsequenz dieser Ergebnisse müsste man eine Angleichung des bisherigen Therapiekonzeptes der R0 Patienten an das der knapp resezierten Patienten vornehmen.
Bei Patienten mit einem primär erhöhtem Rezidivrisiko, welche eine simultane Radiochemotherapie erhielten, erzielte man mit diesem Therapiekonzept eine Angleichung der 5JÜR an Patienten ohne dieses. Es zeigte sich hierbei in der multivariaten Analyse, sowohl beim Gesamtüberleben, als auch beim rezidivfreien Überleben kein statistisch signifikanter Unterschied (Gesamtüberleben p-Wert 0,064, rezidivfreies Überleben p-Wert 0,085).
In einigen Punkten konnte diese Arbeit die Ergebnisse früherer Studien bestätigen.
Einstellungs- und Nadelmodi (wenn auch mit unterschiedlicher Ausprägung)
haben einen Einfluss auf die verbesserte Sichtbarkeit der Regionalanästhesienadeln
im Ultraschall. Damit diese sonographisch besser erkannt werden, sollten sie
in einem flacheren Winkel (30-45°) eingestochen werden. Größere Nadellumina
haben einen Vorteil in der Sichtbarkeit im Ultraschall. Auch konnte gezeigt werden,
dass der Nadelschliff einen Einfluss darauf hat, wie gut die Anästhesiekanülenspitze
sonographisch gesehen wird. Allein die (in der Arbeit untersuchten) Nadelbeschichtungs-
Arten brachten keinen wesentlichen Effekt für die verbesserte
Erkennbarkeit.
Es war jedoch auffallend, dass die subjektiven und objektiven Resultate in einem
relativ hohen Maße nicht übereinstimmten. Gründe dafür sehe ich v.a. im gewählten
Verfahren der objektiven Untersuchung (mit der Bildbearbeitungssoftware
muss die region of interest zielgenauer erfasst werden, um störende Umgebungseinflüsse
auszuschließen).
Echogene Nadeloberflächen (auch wenn diese nicht Gegenstand der vorliegenden
Untersuchung waren), weisen eine verbesserte Ultraschall-Reflexion auf. Sie
werden dazu beitragen, dass die sichere Anwendung der USRA weiter zunimmt.
Verbesserte Sonographiegeräte, zusätzliche Hilfsmittel (GPS-Unterstützung) und
neueste Nadelentwicklungen versprechen einen wichtigen Fortschritt auf dem
Gebiet der ultraschallunterstützten Regionalanästhesie (USRA). Diese Weiterentwicklungen
werden der USRA den Stellenwert als Gold-Standard in der
Regionalanästhesie sichern.
Die Felder und Techniken der modernen Fortpflanzungsmedizin sind im Laufe der Jahre weit fortgeschritten. Um dem Wunsch eines kinderlosen Ehepaares nach Nachwuchs nachzugehen, haben sich Methoden entwickelt, um diesen zu erfüllen. Hierbei haben sich die In-Vitro-Fertilisation und die daraus entwickelte Modifikation, die Intracytoplasmatische Spermieninjektion etabliert. Auch wenn die seit dem Jahre 2004 durchgeführten IVF-Geburten, aufgrund mangelnder Krankenkassenleistungen, entschieden gesunken sind und die kumulative Schwangerschaftsrate nach drei durchgeführten Embryotransfers maximal bei 50-70 % liegt, ist die In-Vitro-Fertilisation und mit ihr verwandten Intracytoplasmatischen Spermieninjektion (im Falle mangelnder Spermienqualität) neben der homologen und heterologen Insemination das älteste und das neuste reproduktionsmedizinische Verfahren, das zur Behandlung des unerfüllten Kinderwunsches eingesetzt wird. Des Weiteren haben sich die Präimplantations- und Pränataldiagnostik einen weit verbreiten Ruf verschafft, um Erbkrankheiten und Fehlentwicklungen des Embryos noch in frühester Entwicklungszeit aufzudecken. Dass hierbei der Embryo und das noch ungeborene Leben in eine Zwickmühle ethischer und rechtlicher Beurteilungen rutschen, scheint offensichtlich. Denn das seit 1990 in Kraft getretene Embryonenschutzgesetz regelt zwar weite Bereiche rund um den Schutz des Embryos, hinterlässt aber auch Lücken. Somit werden Rufe laut nach der Schaffung eines eigenen Fortpflanzungsmedizingesetzes, um die ungeregelten Aspekte der Fortpflanzungsmedizin zu klären [457]. Die rechtliche Lage der modernen Fortpflanzungsmedizin in Deutschland ist recht komplex. Für die vielen verschiedenen Methoden herrschen unterschiedlich rechtliche Regelungen. So wird zum Beispiel die In-Vitro-Fertilisation rechtlich anders geregelt als die Pränatal- und die Präimplantaionsdiagnostik. In Hinsicht auf die In-Vitro-Fertilisation dient als rechtliche Grundlage das Embryonenschutzgesetz, welches besagt, dass „bereits die befruchtete, entwicklungsfähige menschliche Eizelle vom Zeitpunkt der Kernverschmelzung an“ einem Embryo mit all seinen Rechten entspricht. Die Pränataldiagnostik stützt sich zum großen Teil auf die von der Bundesärztekammer verabschiedeten „Richtlinien zur pränatalen Diagnostik von Krankheiten und Krankheitsdispositionen“ sowie auf eine „Erklärung zum Schwangerschaftsabbruch nach Pränataldiagnostik“. In diesen Richtlinien wird darauf hingewiesen, dass zum einen das Lebensrecht des Ungeborenen, zum anderen die Handlungsfreiheit der Eltern in die jeweiligen Entscheidungen einbezogen werden muss. Die in Deutschland zwischen Zulassung und Nichtzulassung befindliche Präimplantationsdiagnostik beruft sich auf das Embryonenschutzgesetz, welches den Verbrauch von Embryonen verbietet, da nach dem Gesetz eine Blastomere einem ganzen Embryo gleichgestellt sei. Ebenso besagt das ESchG, dass eine Eizelle nur zum Zweck der Herbeiführung einer Schwangerschaft befruchtet werden darf, da aber die Präimplantationsdiagnostik die genetische Analyse beabsichtigt, steht dies in einem Widerspruch. Jedoch wird in und außerhalb von Europa der Umgang mit IVF, Präimplantations- und Pränataldiagnostik verschieden gehandhabt. Während sich Deutschland und Österreich für ein klares Verbot der Präimplantationsdiagnostik aussprechen, ist diese in Frankreich und Großbritannien grundsätzlich möglich. Wenn man sich die halachischen Grundlagen im Umgang mit der modernen Fortpflanzungsmedizin vor Augen führt, ist es im Kern der Status des Embryos, der Juden und Christen in zwei völlig verschiedene Richtungen laufen lässt. Die Halacha spricht von menschlichem Leben erst von der Geburt an und geht von mehreren unterscheidbaren Stadien in der Entwicklung des vorgeburtlichen Lebens im Mutterleib aus. Ganz anders die christliche Ethik, sie erkennt bereits dem Embryo die Schutzwürdigkeit menschlichen Lebens zu. Wenn das jüdische Recht die Schutzwürdigkeit eines Embryos nach der entscheidenden Frage differenziert, ob er jünger oder älter als vierzig Tage ist, wird deutlich, dass die IVF als grundsätzlich rechtmäßig gelten muss, da die Embryonen, die im Zuge jeder IVF zerstört oder weitergehend genutzt werden, keinen besonderen Schutz in Anspruch nehmen können. Ebenso fallen jene Vorgänge und Maßnahmen einer modernen PID in jenen Zeitraum von vierzig Tagen nach der Empfängnis, innerhalb dessen nach jahrtausendalter Einstellung des jüdischen Rechts noch kein menschliches Leben im Mutterleib existiert. Somit steht die Halacha einer begründeten PID nicht im Wege. Eine zweite große Kernaussage dieser Dissertation ist die, dass sich das jüdische Religionsgesetz (die Halacha), welche unter anderem die Anleitungen zum Umgang mit der modernen Reproduktionsmedizin liefert, stets darauf bedacht ist, neu ausgelegt zu werden. Die Halacha ist ein immerwährend andauernder Prozess von Erneuerung, welche sich den aktuellen und örtlichen Gegebenheiten kritisch anpassen muss. So auch der Umgang mit der modernen Fortpflanzungsmedizin, der einem immerwährenden Prozess von Erneuerungen unterlegen ist.
Die Nierentransplantation ist neben den verschiedenen Formen der Dialyse die wichtigste Therapieform für Patienten mit terminaler Niereninsuffizienz.
In dieser retrospektiven, monozentrischen Analyse wurden 204 Patienten erfasst, die von 2000 bis 2007 eine Nierentransplantation im Universitätsklinikum Würzburg erhalten hatten. Die Patienten wurden an Hand ihrer Nierenfunktion in vier Gruppen eingeteilt und miteinander verglichen. Ziel dieser Studie war es, Einflussfaktoren auf die Nierenfunktion, Komplikationen und Kosten im ersten Jahr nach Nierentransplantation zu untersuchen.
Wir konnten zeigen, dass eine längere Wartezeit auf ein Spenderorgan und ein hoher präoperativer BMI mit einer schlechteren Nierenfunktion nach Transplantation assoziiert waren. Außerdem fiel auf, dass in den Gruppen mit besserer Nierenfunktion nach Transplantation häufiger Lebendspenden durchgeführt worden waren.
Zu den häufigsten Komplikationen im ersten Jahr nach Nierentransplantation gehörten Anämien, akute Abstoßungsreaktionen, die verzögerte Funktionsaufnahme des Organs, Infektionen, arterielle Hypertonie und Verschlechterungen der Transplantatfunktion. Eine höhere Komplikationsrate war mit einer schlechteren Nierenfunktion und höheren Kosten assoziiert. Der Kostenmehraufwand ergab sich aus der Zunahme an ambulanten Interventionen sowie verlängerten bzw. zusätzlichen stationären Aufenthalten. In unserer Studie hatte die Gruppe mit der schlechtesten Nierenfunktion die meisten Komplikationen und verursachte so die höchsten Kosten.
Wir errechneten einen Gesamtkostenbetrag von 43.000€ im ersten Jahr nach Nierentransplantation pro Patient. 48 % der Gesamtkosten entfielen dabei auf die DRG-Pauschale der Transplantation selbst, 28% auf die immunsuppressive Therapie sowie 10 % auf die Therapie und Prophylaxe von Infektionen.
Somit lagen unsere Kosten für eine Nierentransplantation im ersten Jahr verglichen mit den Kosten für die Hämodialyse in anderen, aktuellen Studien gleich oder höher. Im Vergleich zu den Kosten der Peritonealdialyse anderer Studien waren sie durchgehend höher. Die Kosten für einen transplantierten Patienten reduzierten sich laut Studien jedoch deutlich ab dem zweiten Jahr auf durchschnittlich 12.000€. Die Kosten einer Hämodialyse beliefen sich je nach Studie auf 28.000-43.000 € pro Jahr. Eine Peritonealdialyse kostete ca. 25.000€.
Damit ist die Transplantation mittel- und langfristig die günstigste Therapieform. Aus finanzieller Sicht sollten mehr dialysepflichtige Patienten mittels Peritonealdialyse behandelt und die Transplantationszahlen möglichst gesteigert werden.
Da die Anzahl an Nierentransplantationen von Risikopatienten weiter steigen wird, ist mit einer Zunahme von behandlungsbedürftigen Komplikationen und nachfolgend mit einer Kostensteigerung zu rechnen. Zukünftig sollte versucht werden, Wartezeiten zu reduzieren, die Anzahl der Lebendspenden zu steigern und möglichst Normalgewicht vor Transplantation zu erreichen.
Um dem Kostenanstieg entgegenzuwirken, sollten Kosteneinsparungen durch Optimierung der immunsuppressiven Schemata und verstärkten Einsatz von Generika realisiert werden. Auch eine bessere Infektionsprophylaxe sowie ein frühzeitiges Erkennen und Behandeln von manifesten Infektionen könnten die Kosten weiter reduzieren und die Transplantation ökonomisch noch attraktiver werden lassen.
The tendency towards the exploitation of the resources of creation is the result of a long historical and cultural process. The modern African Communities have witnessed man’s growing capacity for environmental transformative intervention. The aspect of the conquest and exploitation of resources in rural communities such as in the Niger Delta of Nigeria has become predominant and invasive, and has even reached the point of threatening the environment’s hospitable function: the environment only as resource risks threatening the environment as home. In this respect, the ethical judgement of the social realities on ground is very decisive. And this is the very important aspect where the Catholic Social Ethics has a role to play. Because of the environmental crisis in this region through technological advancement, there is urgent need for a balance through the introduction of the model of a sustainable development.
The socio-ethical model of sustainability in this work is a framework so constructed that women, men, families and communities in the Niger Delta are to be the agents which determine what their developmental strategies are. Although their developmental opportunities and decisions are sometimes constrained by various factors, it remains the fact that they alone bear responsibility for their environment and must live with the consequences.
So if sustainable development in the Niger Delta region of Nigeria is to extend beyond narrow technical understanding, it must one that generally seek to embrace the cultural and social systems of the people. This will go a long way in reducing dependency and increase self-empowerment and will place more value on what the people understand and practice.
Bede Chinedum Nwadinobi, a native of Alike Obowo in Imo State (Nigeria), is a Catholic Priest of Okigwe Diocese (Nigeria). He studied Philosophy and Theology at St. Joseph Major Seminary Ikot-Ekpene. He also worked as a Vice-Principal of Queen of Apostles College Okigwe (Nigeria). At the University of Würzburg (Germany), he earned his doctorate in Catholic Theology specializing in Catholic Social Science.
The glaciers in Norway exert a strong influence on Norwegian economy and society. Unlike many glaciers elsewhere and despite ongoing climate change and warming, many of them showed renewed advances and positive net mass changes in the 1980's and 1990's, followed by rapid retreats and mass losses since 2000. This difference in behaviour may be attributed to differences and shifts in the glaciological regime - the differences in the magnitude of impacts of climatic and non-climatic geographical factors on the glacier mass.
This study investigates the influence of various atmospheric variables on mass balance changes of a selection of glaciers in Norway by means of Pearson correlation analyses and cross-validated stepwise multiple regression analyses. The analyses are carried out for three time periods (1949-2008, 1949-1988, 1989-2008) separately in order to take into consideration the possible shift in the glaciological regime in the 1980's. The atmospheric variables are constructed from ERA40 and NCEP/NCAR re-analysis datasets and include regional means of seasonal air temperature and precipitation rates and atmospheric circulation indices. The multiple regression models trained in these time periods are then applied to predictors reconstructed from the CMIP3 climate model dataset to generate an estimate for mass changes from the year 1950 to 2100. The temporal overlap of estimates and observations is used for calibration. Finally, observed atmospheric states in seasons that are characterised by a particularly positive or negative mass balance are categorised into time periods of modelled climate by the application of a Bayesian classification procedure.
The strongest influence on winter mass balance is exerted by different indices of the North Atlantic Oscillation (NAO), Northern Annular Mode (NAM) and precipitation. The correlation coefficients and explained variances determined from the multiple regression analyses reveal an East-West gradient, suggesting a weaker influence of the NAO and NAM on glaciers underlying a more continental regime. The highest correlation coefficients and explained variances were obtained for the 1989-2008 time period, which might be due to a strong and predominantly positive phase of the NAO. Multi-model ensemble means of the estimates show a mass loss for all three eastern glaciers, while the estimates for the more maritime glaciers are ambivalent. In general, the estimates show a greater sensitivity to the training time period than to the greenhouse gas emission scenarios according to which the climates were simulated. The average net mass change by the end of 2100 is negative for all glaciers except for the northern Engabreen. For many glaciers, the Bayesian classification of observed atmospheric states into time periods of modelled climate reveals a decrease in probability of atmospheric states favouring extremes in winter, and an increase in probability of atmospheric states favouring extreme mass loss in summer for the distant future (2071-2100). This pattern of probabilities for the ablation season is most pronounced for glaciers underlying a continental and intermediate regime.
Im Umfeld von Unternehmenssoftware, Planung und Entscheidung in Wertschöpfungsnetzen sind verschiedene Schlagwörter weit verbreitet. Technologisch getriebene Themen wie Real-Time-Enterprise-Management, Big Data, Business Intelligence, Corporate Performance Ma-nagement und die dazugehörige Software werden in diversen Anwendungskontexten verwen-det. In Unternehmen jedoch werden die klassischen betriebswirtschaftlichen Aufgaben wie Unternehmens-, Absatz- und Produktionsplanung rein methodisch und funktional durchge-führt. Eine abteilungsübergreifende Prozessbetrachtung kann nicht als gegeben betrachtet werden. Das Zusammentreffen von technologischem Fortschritt durch Standardanwendungs-software verbunden mit innovativen Datenspeicher- und Informationsverarbeitungsmethoden und den organisatorischen Strukturen in global agierenden Produktionsunternehmen, bewirkt einen nie da gewesenen Anstieg der Komplexität. Folglich müssen sich die Organisation und Informationssysteme im Sinne der Integration aneinander annähern, um Koordinations-schwierigkeiten bei bereichsübergreifenden Arbeitsabläufen und deren Informationsflüssen zu reduzieren.
Die zunehmende Automatisierung inner- und zwischenbetrieblicher Planungsabläufe sowie der Anstieg der Informationsquellen für zukünftige Geschäftsentscheidungen hat eine große Datenmenge zur Folge. Um den unbestrittenen Mehrwert von richtiger Information am richti-gen Ort zur richtigen Zeit für Unternehmen nutzbar zu machen und die daraus abgeleiteten Entscheidungen umzusetzen, bedarf es einer präzisen Beschreibung der relevanten Geschäfts-prozesse und der spezifischen Informationen. Deshalb verändern sich die Planungs- und Ent-scheidungsprozesse durch die Konsolidierung moderner Informationstechnologie massiv. Hierfür wird ein innovativer und praxiserprobter Ansatz entwickelt:
Unter integrierter Planung- und Entscheidung (IPE) ist die Standardisierung der dezentralen Entscheidungsfindung unter Einbeziehung aller relevanten Informationen im Absatz-, Pro-duktionsgrob- und Finanzplanungsprozess zu verstehen. Basis ist die zentrale Informations-administration.
Der Autor entwickelt ein Vorgehensmodell zur Standardisierung des integrierten Planungs- und Entscheidungsprozesses, das alle wesentlichen Funktionen und Abteilungen eines produ-zierenden Unternehmens verbindet. Dabei werden die relevanten Informationen identifiziert und in ein ganzheitliches IPE-Rahmenwerk eingebettet. Dies zeigt das Zusammenspiel der allgemeinen informationstechnologischen und organisatorischen Anforderungen mit den auf-gabenbezogenen Zielsetzungen im taktischen Planungs- und Entscheidungsprozess auf. Das Modell löst die Planungsproblematik im Anwendungsfall eines multinationalen Unterneh-mens.
Anwender erhalten mit der Arbeit einen praxisgerechten Leitfaden zur Einführung standardi-sierter Planungs- und Entscheidungsprozesse. Dabei wird die Automatisierung insofern be-rücksichtigt, dass das Vorgehensmodell auch für Unternehmen mit heterogenen Informations-systemlandschaften Nutzen stiftet. Darüber hinaus, kann das IPE-Modell für Software-Firmen als Ausgangspunkt zur Weiterentwicklung von Standardanwendungssoftware im taktischen Managementbereich dienen.
Hintergrund:
In dieser retrospektiven Studie soll der Einfluss von Rauchen, Alter und systemischer Medikation auf den Behandlungserfolg einer Anti-VEGF Therapie bei altersbedingter Makuladegeneration (AMD) über einen Zeitraum von 24 Monaten untersucht werden.
Patienten und Methode:
100 Patienten mit choroidalen Neovaskularisationen bei AMD wurden in die Studie eingeschlossen. Best korrigierter Visus (BV), Anzahl der Injektionen in 24 Monaten sowie Rauchgewohnheiten und systemische Medikation wurden für die Analysen berücksichtigt. Ausschlusskriterium war ein BV < 0,1 zu Beginn der Behandlung.
Resultate:
42 Raucher (inkl. 31 Exraucher) mit 23,5 Packyears (Py) im Median wurden identifiziert. Je mehr Py ein Patient rauchte, umso niedriger war sein BV nach der letzten Injektion (p = 0,009). Je mehr Zigaretten pro Tag ein Raucher rauchte, umso mehr Injektionen erhielt er in 24 Monaten (p = 0,0042). Bluthochdruckpatienten hatten einen niedrigeren BV nach der letzten Injektion (p = 0,045).
Schlussfolgerungen
Rauchen ist nicht nur ein Risikofaktor für die Entwicklung einer AMD, sondern auch für die Effektivität der Anti-VEGF Therapie. Auch unter sozioökonomischen Gesichtspunkten ist dies ein weiterer Grund, Patienten zur Aufgabe des Rauchens aufzufordern.
Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg.
Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert.
Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten.
Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen.
Einleitung:
Steady-State- Muster-ERGs (PERGs) werden in der Glaukomfrühdiagnostik angewandt. Da die transienten PERG-Komponenten N35, P50 und N95 unter schnellen Reizbedingungen nicht zu erkennen sind, können bisher keine Aussagen über die Beteiligung einzelner Retinaschichten an der Reizantwort gemacht werden. Mit der Deconvolution-Methode (CLAD) wurden 2004 akustisch evozierte transiente Antworten aus hochfrequenten Messungen entfaltet. In dieser Arbeit wird CLAD beim PERG validiert um herauszufinden, ob bei Messungen mit hohen Reizfrequenzen deutliche transiente Antworten entfaltet werden.
Methodik:
Es wurden 3 Reizbedingungen mit nicht-isochronen Stimuli der mittleren Frequenz 16,7 rps verglichen. Der Abstand zwischen 2 Stimuli variierte zwischen 15 und 105 ms, 30 und 90 ms oder 45 und 75 ms, der mittlere Abstand betrug jedoch immer 60 ms. Als Referenz wurden konventionelle transiente (1,4 rps) und Steady-State-Messungen (16,7 rps) durchgeführt. Um sie zu validieren, wurden in einem zweiten Schritt aus den transienten CLAD-Steady-State-Antworten synthetisiert und diese mit der Steady-State-Referenzmessung verglichen.
Ergebnisse:
Die große Übereinstimmung der synthetisierten Steady-State-Antworten mit der Referenzmessung im Bezug auf Amplitude und –Kurvenform bestätigte, dass die entfalteten transienten Antworten „trotz“ Abweichungen von konventionellen PERG-Antworten plausibel sind. Allerdings hatte der konkrete Stimulusabstand Einfluss auf die PERG-Antwort: die Amplituden der 3 CLAD-Reizbedingungen wichen signifikant voneinander ab.
Diskussion:
Diese Studie zeigte, dass durch CLAD transiente Reizantworten aus Messungen hoher Frequenz gewonnen werden können. Ob der Einsatz von CLAD Vorteile in der Glaukomfrühdiagnostik erbringt und der exakte retinale Ursprung der Antwortkomponenten ist in künftigen Studien zu validieren. Durch CLAD könnte es in Zukunft möglich werden, auf elektrophysiologischem Wege den Beitrag einzelner Retinaschichten bei Retinapathologien genauer aufzuzeigen.
Die Arbeit beschäftigte sich mit Untersuchungen zu photovernetzbaren und –strukturierbaren (Hybrid-)Polymeren, um Grundlagen für die Herstellung von Trägergerüststrukturen (Scaffolds) auf Basis photovernetzbarer (Hybrid-)Polymere zu legen und damit in der Zukunft patientenindividuelle medizinische Werkstücke, die beliebig durch Zwei-Photonen-Absorptionsprozesse in drei Dimensionen strukturierbar sind, für die Regenerative Medizin zu ermöglichen.
Dafür wurden zunächst die zum Teil in der Literatur unbekannten unterschiedlichen Monomere Acr-1, MAcr-2, Acr-3, MAcr-4 und DiMAcr-5 synthetisiert. Dabei handelt es sich um einfache und gut vergleichbare organische (Meth-)Acrylat-Monomere, die mono- bzw. difunktional in ihren photochemisch reaktiven Gruppen sind. Die synthetisierten organischen Monomere Acr-3, MAcr-4 und DiMAcr-5 wurden in verschiedenen Verhältnissen mit dem anorganisch-organischen Methacrylat-basierten Hybridpolymers ORMOCER® I kombiniert.
Die (Co-)Polymerisation der unterschiedlichen Formulierungen wurde in situ mittels UV-DSC-Untersuchung verfolgt. Dabei wurden bei diesen Untersuchungen zum Teil deutliche Unterschiede im Reaktionsverlauf der einzelnen Materialformulierungen festgestellt. So konnten zum Beispiel bei Monomermischungen ein schnellerer Polymerisationsverlauf sowie eine höhere maximale Polymerisationsrate als bei den jeweiligen Einzelkomponenten beobachtet werden (Synergieeffekt). Diese Beobachtungen wurden anhand der Monomerstruktur (unterschiedliche Diffusionsfähigkeiten im vergelten, aber noch nicht erstarrten System durch Mono- bzw. Difunktionalität) und der Art der funktionellen Gruppe (Acrylat- bzw. Methacrylatgruppe) erklärt.
Weiterhin wurden der Einfluss des verwendeten Photoinitiators und dessen eingesetzte Konzentration auf die photochemisch-induzierte Copolymerisation eines ausgewählten Systems beleuchtet. Dazu wurden verschiedene Einflussfaktoren der Initiation betrachtet. Neben der eingesetzten Initiatorkonzentration spielen auch die Absorptionseigenschaften, die umgebende Matrix und die Initiatoreffizienz eine große Rolle für den Reaktionsverlauf der photochemischen Vernetzung. Weiterhin wurden die Photoinitiatoren in unterschiedlichen Konzentrationen eingesetzt, um die dadurch induzierte Veränderung des Reaktionsverlaufs zu betrachten. Aus den Einflüssen auf die Reaktionsverläufe konnte geschlossen werden, dass diese sowie auch die maximale Polymerisationsrate RP,max und damit die Reaktionskinetik nicht in jedem Fall linear mit der Initiatorkonzentration zunehmen muss.
Erste generelle 2PP-Strukturierungen wurden zudem an ausgewählten Material-formulierungen durchgeführt. Dabei zeigte sich, dass alle Formulierungen bei bestimmten Parameterkombinationen aus Laserleistung und Schreibgeschwindigkeit mittels 2PP strukturiert werden konnten. Außerdem wurden bei den verschiedenen Formulierungen bei gleicher Parameterkombination unterschiedliche Strukturbreiten und damit erstmalig unterschiedliche Strukturvolumina beobachtet. Diese unterschiedlichen Volumina konnten erstmalig mit den unterschiedlichen Reaktionsverläufen der Materialformulierungen korreliert werden. Dabei zeigte sich, dass das chemische Wechselwirkungsvolumen von der Funktionalität der eingesetzten Materialkomponenten abhängig ist, da davon der Grad an Quervernetzung abhängt, der bestimmt, ob ausreichend vernetzte Voxel und Strukturen entstehen, die durch einen Entwicklungsschritt nicht mehr entfernt werden.
Im zweiten Teil der Arbeit wurde ein biokompatibles und photostrukturierbares Hybridpolymer (RENACER® MB-I) entwickelt, welches mittels 2PP strukturiert werden konnte, was anhand kleiner wie auch großer Scaffolds mit dem Material demonstriert wurde. Dazu wurde das kommerziell erhältliche Alkoxysilan-Molekül
O-(Methacryloxyethyl)-N-(triethoxysilylpropyl)urethan als Precursor verwendet. Durch eine bewusst unvollständige Hydrolyse- und Kondensationsreaktion konnte aus dem Precursorsilan ein Hybridpolymerharz hergestellt werden, welches anorganisch vorverknüpft war. Weiterhin wies es sowohl als Volumenpolymer, als auch in Form von Scaffold-Strukturen eine sehr gute Biokompatibilität auf. Um zu untersuchen, ob die im Hybridpolymer enthaltenen prinzipiell degradierbaren Gruppen unter physiologischen Bedingungen tatsächlich degradieren und Teile aus dem Polymerverband herausgelöst werden können, wurde ein selbstentwickeltes Verfahren für stationäre Degradations-untersuchungen in phosphat-gepufferter Saline (PBS, pH = 7,4) verwendet. Die durch die photochemische Polymerisation neu entstandenen Ketten besaßen ihrer Natur gemäß keine hydrolysierbaren Einheiten, weshalb das Hybridpolymer nicht vollständig degradieren kann. Es konnte jedoch ein prinzipieller Zugang zu Gerüstträgerstrukturen auf Basis photovernetzbarer Polymere für die Regenerative Medizin geschaffen werden.