Refine
Year of publication
- 2015 (344) (remove)
Document Type
- Doctoral Thesis (344) (remove)
Keywords
- Kernspintomografie (10)
- Topologischer Isolator (8)
- Exziton (7)
- Kohlenstoff-Nanoröhre (7)
- Taufliege (7)
- Aspergillus fumigatus (5)
- Drosophila (5)
- Therapie (5)
- Festkörperphysik (4)
- Fluoreszenz (4)
Institute
- Graduate School of Life Sciences (45)
- Theodor-Boveri-Institut für Biowissenschaften (37)
- Physikalisches Institut (31)
- Institut für Physikalische und Theoretische Chemie (19)
- Institut für Pharmazie und Lebensmittelchemie (16)
- Institut für Mathematik (14)
- Medizinische Klinik und Poliklinik II (14)
- Institut für Anorganische Chemie (12)
- Institut für Organische Chemie (12)
- Institut für Psychologie (11)
Sonstige beteiligte Institutionen
- ATLAS Collaboration (1)
- Adam Opel AG (1)
- Bayerisches Zentrum für Angewandte Energieforschung e.V. (1)
- CERN (1)
- Deutscher Akademischer Austauschdienst (DAAD) (1)
- Deutsches Zentrum für Luft- und Raumfahrt (DLR), Institut für Raumfahrtsysteme (1)
- Département de géographie, Université Abdou Moumouni Dioffo de Niamey, Niger (1)
- Fraunhofer-Institut für Silicatforschung ISC (1)
- Hochschule Aalen (1)
- Institut für Biopsychologie, Universität Dresden (1)
ResearcherID
- B-1911-2015 (1)
- C-2593-2016 (1)
- N-2030-2015 (1)
- N-3741-2015 (1)
LIM and SH3 protein 1 (LASP1) is a nucleocytoplasmic scaffolding protein. LASP1 interacts with various cytoskeletal proteins via its domain structure and is known to participate in physiological processes of cells. In the present study, a detailed investigation of the expression pattern of LASP1 protein in normal skin, melanocytic nevi and melanoma was carried out and the melanocyte–specific function of LASP1 was analyzed. LASP1 protein was identified in stratum basale of skin epidermis and a very high level was detected in nevi, the benign tumor of melanocyte. In the highly proliferative basal cells, an additional distinct nuclear localization of the protein was noted. In different tumor entities, an elevated LASP1 expression and nuclear localization, correlated positively with malignancy and tumor grade. However, LASP1 level was determined to be very low in melanoma and even reduced in metastases. Melanoma is distinguished as the first tumor tested to date – that displayed an absence of elevated LASP1 expression. In addition no significant relation was observed between LASP1 protein expression and clinicopathological parameters in melanoma.
The epidermal melanin unit of skin comprises of melanocytes and keratinocytes. Melanocytes are specialized cells that synthesize the photo protective coloring pigment, melanin inside unique organelles called melanosomes. The presence of LASP1 in melanocytes is reported for the first time through this study and the existence was confirmed by immunoblotting analysis in cultured normal human epidermal melanocyte (NHEM) and in melanoma cell lines, along with the immunohistostaining imaging in normal skin and in melanocytic nevi. LASP1 depletion in MaMel2 cells revealed a moderate increase in the intracellular melanin level independently of de novo melanogenesis, pointing to a partial hindrance in melanin release. Immunofluorescence images of NHEM and MaMel2 cells visualized co-localization of LASP1 with dynamin and tyrosinase concomitant with melanosomes at the dendrite tips of the cells. Melanosome isolation experiments by sucrose density gradient centrifugation clearly demonstrated the presence of LASP1 and the melanosome specific markers tyrosinase and TRP1 in late stage melanosomes.
The study identified LASP1 and dynamin as novel binding partners in melanocytes and provides first evidence for the existence of LASP1 and dynamin (a protein well–known for its involvement in vesicle formation and budding) in melanosomes. Co-localization of LASP1 and dynamin along the dendrites and at the tips of the melanocytes indicates a potential participation of the two proteins in the membrane vesicle fission at the plasma membrane.
In summary, a possible involvement of LASP1 in the actin–dynamin mediated membrane fission and exocytosis of melanin laden melanosome vesicles into the extracellular matrix is suggested.
Ziel:
In dieser Arbeit wurden die Auswirkung der milden und moderaten Hyponatriämie (125-133 mmol/l) auf das Befinden der betroffenen Patienten im Hinblick auf neurokognitive Funktion und klinische Symptomatik untersucht. In mehreren Studien wurde über eine erhöhte Sturzneigung sowie eine Minderung der Konzentrationsfähigkeit bei einem nur leicht erniedrigten Serumnatriumspiegel berichtet.
Methoden:
Die Testungen fanden im Longitudinalvergleich mit jeweils den gleichen Patienten vor und nach Anhebung des Serumnatriumspiegels statt, sodass bis auf das Serumnatrium keine Beeinflussung gegeben war. Die Patienten waren im Durchschnitt 61 Jahre alt und besaßen einen durchschnittlichen Serumnatriumwert von 128,7 mmol/l; die Ätiologie der Hyponatriämie war heterogen (normovolämische und hypervolämische Hyponatriämie).
Um die Aufmerksamkeitsdefizite aufzudecken, fanden Testungen der Patienten (n=16) mit vier verschiedenen Untertests der TAP, einem Standardprogramm der Psychologie, statt: „Alertness“ mit „phasischer Alertness“, „Daueraufmerksamkeit“, „Geteilte Aufmerksamkeit“ und „Go/Nogo“. Um die Konzentrationsfähigkeit gegen eine Störung wie Stress beurteilen zu können, wurde die „Wiener Form A“, ein Subtyp des Wiener Testsystems verwendet, ein ebenfalls in der Psychologie genutzter Test (n=12).
Verwendet wurde außerdem ein selbst designter Fragebogen (n=18), der auf die in der Literatur berichteten Symptome einer leichten Hyponatriämie zugeschnitten war. Ein und dieselben Patienten wurden jeweils vor und nach Anhebung des Serumnatriumwertes getestet.
Ergebnisse:
Es zeigte sich, dass bei verschiedenen klinischen Symptomen wie Krämpfen (p= 0,018) und Gangunsicherheit (p= 0,092) signifikante Verbesserungen gefunden wurden. Auch bei dem unspezifischeren Symptom Müdigkeit (p= 0,04) konnte eine Tendenz zur Besserung nach Anhebung des Serumnatriumspiegels verzeichnet werden. In den Aufmerksamkeitstests war – im Gegensatz zu einer Vorstudie, in der ebenfalls die TAP zur Beurteilung der neurokognitiven Funktion herangezogen worden war - weder die „Alertness“, also die Reaktionsgeschwindigkeit, noch die Reaktions-Selektionsleistung beim Test „Go/Nogo“ signifikant alteriert. Auch die „Daueraufmerksamkeit“ und „Geteilte Aufmerksamkeit“ wurden nicht signifikant beeinflusst.
Ebenso wenig wie die verschiedenen Aufmerksamkeitfunktionen beeinflusst werden, ist die Reaktionsfähigkeit unter Stress wesentlich herabgesetzt. Denn der Stressreiz im Test „Wiener Form A“ führte bei den Patienten in Hyponatriämie zu keinem signifikant schlechteren Ergebnis als der gleiche Test mit denselben Patienten bei angehobenem Serumnatriumwert.
Zusammefassung:
Zusammenfassend kann aus der vorliegenden Studie gefolgert werden, dass eine milde und moderate Hyponatriämie keine Auswirkungen auf die neurokognitive Funktion hat und insofern die Sturzneigung bei älteren Patienten wohl nicht beeinflusst. Bei bestimmten klinischen Symptomen konnte eine teilweise signifikante Verbesserung verzeichnet werden, jedoch gibt es zu viele mögliche Einflussfaktoren, als dass man eine endgültige Aussage treffen könnte. Die Ergebnisse aus Vorstudien müssen in Frage gestellt werden. Um den tatsächlichen Einfluss einer milden und moderaten Hyponatriämie auf die Aufmerksamkeitsfunktion zu klären sowie die Beeinträchtigung bei bestimmten klinischen Symptomen beweisen zu können, bedarf es weiterer Studien in randomisiertem Doppelblinddesign mit höherer Patientenzahl.
In the course of the growth of the Internet and due to increasing availability of data, over the last two decades, the field of network science has established itself as an own area of research. With quantitative scientists from computer science, mathematics, and physics working on datasets from biology, economics, sociology, political sciences, and many others, network science serves as a paradigm for interdisciplinary research.
One of the major goals in network science is to unravel the relationship between topological graph structure and a network’s function. As evidence suggests, systems from the same fields, i.e. with similar function, tend to exhibit similar structure. However, it is still vague whether a similar graph structure automatically implies likewise function. This dissertation aims at helping to bridge this gap, while particularly focusing on the role of triadic structures.
After a general introduction to the main concepts of network science, existing work devoted to the relevance of triadic substructures is reviewed. A major challenge in modeling triadic structure is the fact that not all three-node subgraphs can be specified independently
of each other, as pairs of nodes may participate in multiple of those triadic subgraphs.
In order to overcome this obstacle, we suggest a novel class of generative network models based on so called Steiner triple systems. The latter are partitions of a graph’s vertices into pair-disjoint triples (Steiner triples). Thus, the configurations on Steiner triples can be specified independently of each other without overdetermining the network’s link
structure.
Subsequently, we investigate the most basic realization of this new class of models. We call it the triadic random graph model (TRGM). The TRGM is parametrized by a probability distribution over all possible triadic subgraph patterns. In order to generate a network instantiation of the model, for all Steiner triples in the system, a pattern is drawn from the distribution and adjusted randomly on the Steiner triple. We calculate the degree distribution of the TRGM analytically and find it to be similar to a Poissonian distribution. Furthermore, it is shown that TRGMs possess non-trivial triadic structure. We discover inevitable correlations in the abundance of certain triadic subgraph
patterns which should be taken into account when attributing functional relevance to particular motifs – patterns which occur significantly more frequently than expected at random. Beyond, the strong impact of the probability distributions on the Steiner triples on the occurrence of triadic subgraphs over the whole network is demonstrated. This interdependence allows us to design ensembles of networks with predefined triadic substructure. Hence, TRGMs help to overcome the lack of generative models needed for assessing the relevance of triadic structure.
We further investigate whether motifs occur homogeneously or heterogeneously distributed over a graph. Therefore, we study triadic subgraph structures in each node’s neighborhood individually. In order to quantitatively measure structure from an individual node’s perspective, we introduce an algorithm for node-specific pattern mining for both directed unsigned, and undirected signed networks. Analyzing real-world datasets, we find that there are networks in which motifs are distributed highly heterogeneously, bound to the proximity of only very few nodes. Moreover, we observe indication for the potential sensitivity of biological systems to a targeted removal of these critical vertices. In addition, we study whole graphs with respect to the homogeneity and homophily of their node-specific triadic structure. The former describes the similarity of subgraph distributions in the neighborhoods of individual vertices. The latter quantifies whether connected vertices
are structurally more similar than non-connected ones. We discover these features to be characteristic for the networks’ origins. Moreover, clustering the vertices of graphs regarding their triadic structure, we investigate structural groups in the neural network of C. elegans, the international airport-connection network, and the global network of diplomatic sentiments between countries. For the latter we find evidence for the instability of triangles considered socially unbalanced according to sociological theories.
Finally, we utilize our TRGM to explore ensembles of networks with similar triadic substructure in terms of the evolution of dynamical processes acting on their nodes. Focusing on oscillators, coupled along the graphs’ edges, we observe that certain triad motifs impose a clear signature on the systems’ dynamics, even when embedded in a larger
network structure.
Kohlenhydrat-Protein-Wechselwirkungen sind häufig entscheidend beteiligt an verschiedenen einer Infektion oder malignen Erkrankung zugrunde liegenden molekularen Erkennungs-prozessen, die zu Adhäsion, Zell-Zell-Interaktion sowie Immunreaktion und -toleranz führen. Trotz der hohen Relevanz für Diagnostik und Therapie dieser Erkrankungen sind die betreffenden Strukturen und Mechanismen bisher nur ungenügend untersucht und verstanden. Ziel dieser stark interdisziplinär angelegten Arbeit war es daher, Methoden der Fachbereiche Chemie und Pharmazie, Biologie und Medizin, aber auch Physik zu kombinieren, um Kohlenhydraterkennungsprozesse im Detail zu untersuchen und auf dieser Basis strukturell neuartige diagnostische und therapeutische Anwendungen zu entwerfen.
Die hochkomplexe Zusammensetzung einer Zelloberfläche wurde zunächst auf ihren Glycan-anteil reduziert und stark vereinfacht auf der Oberfläche sogenannter Glycochips imitiert. Die verwendeten Systeme auf Basis einer Gold- bzw. Glasoberfläche ergänzen sich optimal in ihrer Eignung für komplementäre analytische Methoden wie Massenspektrometrie sowie quantifizierbare Fluoreszenzspektroskopie.
Der Übergang auf die lebende Zelloberfläche gelang mit Hilfe des Metabolic Glyco-engineering, das die kovalente Präsentation definierter Motive durch eine Cycloaddition zwischen zwei bioorthogonalen Reaktionspartnern (z.B. Azid und Alkin) ermöglicht.
Auf diese Weise wurden in Zusammenarbeit mit der Arbeitsgruppe Sauer (Universität Würzburg) zunächst die Dichte und Verteilung verschiedener Oberflächenglycane auf humanen Zellen mittels hochauflösender Fluoreszenzmikroskopie (dSTORM) bestimmt. Diese Parameter zeigten im Modell des Glycochips einen entscheidenden Einfluss auf Bindungsereignisse und multivalente Erkennung und zählen auch auf natürlichen Zelloberflächen – in engem Zusammenhang mit der lateralen und temporalen Dynamik der Motive – zu den wichtigen Faktoren molekularer Erkennungsprozesse.
Die gezielte Modifikation zellulärer Oberflächenglycane eignet sich aber auch selbst als Methode zur Beeinflussung molekularer Wechselwirkungsprozesse. Dies wurde anhand des humanpathogenen Bakteriums S. aureus gezeigt, dessen Adhäsion auf Epithelzellen der Blasenwand durch Metabolic Glycoengineering partiell unterdrückt werden konnte.
In einem ergänzenden Projekt wurden zwei potentielle Metabolite eines konventionellen Antibiotikums – des Nitroxolins – mit bakteriostatischer sowie antiadhäsiver Wirksamkeit dargestellt. Diese dienten als Referenzsubstanzen zur Verifizierung der postulierten Struktur der Derivate, werden aber auch selbst auf ihr Wirkprofil hin untersucht. Gleichzeitig stehen sie zusammen mit der Grundverbindung zudem als Referenz für die Wirkstärke potentieller neu entwickelter Antiadhäsiva zur Verfügung.
Die Dissertation untersucht den Einfluss der inhaltlichen Konzepte und der Formensprache Nietzsches auf die spanische Literatur. Die Arbeit analysiert, inwiefern Theoreme wie der Übermensch, die ewige Wiederkunft des Gleichen, Nietzsches Ästhetik und seine Religi-onskritik in den Texten der generaciones del 98, 14 und 27 gegenwärtig sind. Die Untersuchung bildet verschiedene Gattungen ab und stützt sich auf Texte der Lyrik (u.a. „A Nietzsche“, „En Flor 50“), Prosa (u.a. Los trabajos del infatigable creador Pío Cid, La filosofía del hombre que trabaja y que juega), Dramatik (u.a. El señor del Pigmalión) und auf Essays (u.a. Papeles póstumos, La rebelión de las masas), deren verbindendes Element die Präsenz der Philosophie Nietzsches ist. Die Dissertation versucht Nietzsches Einfluss nachzuvollziehen, indem sie (1) in einem darstellenden Teil die philosophischen und gesellschaftlichen Bedingungen erörtert, unter denen der Philosoph in Spanien rezipiert wird, (2) die für die Textarbeit relevanten philosophischen Konstrukte Nietzsches darstellt und (3) in einem textkritischen Teil konkret das literarische Material auf die zuvor skizzierten Theorien Nietzsches hin untersucht.
The ecosystem of the high northern latitudes is affected by the recently changing environmental conditions. The Arctic has undergone a significant climatic change over the last decades. The land coverage is changing and a phenological response to the warming is apparent. Remotely sensed data can assist the monitoring and quantification of these changes. The remote sensing of the Arctic was predominantly carried out by the usage of optical sensors but these encounter problems in the Arctic environment, e.g. the frequent cloud cover or the solar geometry. In contrast, the imaging of Synthetic Aperture Radar is not affected by the cloud cover and the acquisition of radar imagery is independent of the solar illumination. The objective of this work was to explore how polarimetric Synthetic Aperture Radar (PolSAR) data of TerraSAR-X, TanDEM-X, Radarsat-2 and ALOS PALSAR and interferometric-derived digital elevation model data of the TanDEM-X Mission can contribute to collect meaningful information on the actual state of the Arctic Environment. The study was conducted for Canadian sites of the Mackenzie Delta Region and Banks Island and in situ reference data were available for the assessment. The up-to-date analysis of the PolSAR data made the application of the Non-Local Means filtering and of the decomposition of co-polarized data necessary.
The Non-Local Means filter showed a high capability to preserve the image values, to keep the edges and to reduce the speckle. This supported not only the suitability for the interpretation but also for the classification. The classification accuracies of Non-Local Means filtered data were in average +10% higher compared to unfiltered images. The correlation of the co- and quad-polarized decomposition features was high for classes with distinct surface or double bounce scattering and a usage of the co-polarized data is beneficial for regions of natural land coverage and for low vegetation formations with little volume scattering. The evaluation further revealed that the X- and C-Band were most sensitive to the generalized land cover classes. It was found that the X-Band data were sensitive to low vegetation formations with low shrub density, the C-Band data were sensitive to the shrub density and the shrub dominated tundra. In contrast, the L-Band data were less sensitive to the land cover. Among the different dual-polarized data the HH/VV-polarized data were identified to be most meaningful for the characterization and classification, followed by the HH/HV-polarized and the VV/VH-polarized data. The quad-polarized data showed highest sensitivity to the land cover but differences to the co-polarized data were small. The accuracy assessment showed that spectral information was required for accurate land cover classification. The best results were obtained when spectral and radar information was combined. The benefit of including radar data in the classification was up to +15% accuracy and most significant for the classes wetland and sparse vegetated tundra. The best classifications were realized with quad-polarized C-Band and multispectral data and with co-polarized X-Band and multispectral data. The overall accuracy was up to 80% for unsupervised and up to 90% for supervised classifications. The results indicated that the shortwave co-polarized data show promise for the classification of tundra land cover since the polarimetric information is sensitive to low vegetation and the wetlands. Furthermore, co-polarized data provide a higher spatial resolution than the quad-polarized data.
The analysis of the intermediate digital elevation model data of the TanDEM-X showed a high potential for the characterization of the surface morphology. The basic and relative topographic features were shown to be of high relevance for the quantification of the surface morphology and an area-wide application is feasible. In addition, these data were of value for the classification and delineation of landforms. Such classifications will assist the delineation of geomorphological units and have potential to identify locations of actual and future morphologic activity.
Aus Untersuchungen mit dem multifokalen VEP (mfVEP) weiß man, dass sich multifokal visuell evozierte Potenziale aus unterschiedlichen Teilen des Gesichtsfeldes störend beeinflussen und auslöschen können. Ziel dieser Studie war es zu untersuchen, ob die Signalqualität des pattern-onset VEPs erhöht und die Reproduzierbarkeit der Signalantworten mit Hilfe des mfVEPs verbessert werden kann, indem man einzelne mfVEPs gleichrichtet.
20 Normalpersonen nahmen an dieser Untersuchung teil. Ein kortikal skaliertes Schachbrettmuster von 30° Größe wurde in 6 keilförmige Teilfelder unterteilt. Innerhalb jedes Teilfeldes wurden kortikal skalierte Schachbrettmuster mit einer mittleren Leuchtdichte
von 50 cd/m2 und einem Kontrast von 99% im pattern-pulse Verfahren präsentiert. Die durchschnittliche Stimulationsfrequenz betrug 2,0 Hz. MfVEPs des rechten Auges wurden über eine Oz-Fpz und bipolare Ableitung zwischen zwei 4 cm um das Inion angeordnete Elektroden
abgeleitet. Durch Summierung der 6 mfVEP Ableitungen mit unterschiedlichen Vorzeichen wurden zwei Ganzfeld-VEPs synthetisiert, von denen eine die frühen C1 und C2 Komponenten, die andere die späte C3-Komponente des pattern onset VEPs erhöhte.
Amplituden und Latenzunterschiede zwischen den synthetisierten Antwortkurven und der Ganzfeldantwort aller 6 Felder wurden auf Signifikanz getestet. Die Daten legen nahe, dass die inter-individuelle Variabilität des Standard Ganzfeld pattern onset VEPs auf die Auslöschung
von großen und wenig variablen VEP Signalen aus unterschiedlichen Bereichen des Gesichtfsfeldes zurückgeführt werden kann. Die Gleichrichtung dieser VEP-Signale führte zu einem hochsignifikanten Anstieg der Amplitude und zu einer reduzierten Variabilität
der synthetisierten Ganzfeldantworten im Vergleich zur gemessenen Ganzfeldantwort. Neben der objektiven Perimetrie kann die Anwendung multifokaler Techniken zu einer gesteigerten Sensitivität beim Aufspüren visueller Pathologien führen verglichen mit Standard Ganzfeldmessungen.
Die bSSFP-Sequenz kombiniert kurze Akquisitionszeiten mit einem hohen Signal-zu-Rausch-Verhältnis, was sie zu einer vielversprechenden Bildgebungsmethode macht. Im klinischen Alltag ist diese Technik jedoch bisher - abgesehen von vereinzelten Anwendungen - kaum etabliert. Die Hauptgründe hierfür sind Signalauslöschungen in Form von Bandingartefakten sowie der erzielte T2/T1-gewichtete Mischkontrast. Das Ziel dieser Dissertation war die Entwicklung von Methoden zur Lösung der beiden genannten Limitationen, um so eine umfassendere Verwendung von bSSFP für die MR-Diagnostik zu ermöglichen.
Magnetfeldinhomogenitäten, die im Wesentlichen durch Suszeptibilitätsunterschiede oder Imperfektionen seitens der Scannerhardware hervorgerufen werden, äußern sich bei der bSSFP-Bildgebung in Form von Bandingartefakten. Mit DYPR-SSFP (DYnamically Phase-cycled Radial bSSFP) wurde ein Verfahren vorgestellt, um diese Signalauslöschungen effizient zu entfernen. Während für bereits existierende Methoden mehrere separate bSSFP-Bilder akquiriert und anschließend kombiniert werden müssen, ist für die Bandingentfernung mittels DYPR-SSFP lediglich die Aufnahme eines einzelnen Bildes notwendig. Dies wird durch die neuartige Kombination eines dynamischen Phasenzyklus mit einer radialen Trajektorie mit quasizufälligem Abtastschema ermöglicht. Die notwendigen Bestandteile können mit geringem Aufwand implementiert werden. Des Weiteren ist kein spezielles Rekonstruktionsschema notwendig, was die breite Anwendbarkeit des entwickelten Ansatzes ermöglicht. Konventionelle Methoden zur Entfernung von Bandingartefakten werden sowohl bezüglich ihrer Robustheit als auch bezüglich der notwendigen Messzeit übertroffen.
Um die Anwendbarkeit von DYPR-SSFP auch jenseits der gewöhnlichen Bildgebung zu demonstrieren, wurde die Methode mit der Fett-Wasser-Separation kombiniert. Basierend auf der Dixon-Technik konnten so hochaufgelöste Fett- sowie Wasserbilder erzeugt werden. Aufgrund der Bewegungsinsensitivät der zugrunde liegenden radialen Trajektorie konnten die Messungen unter freier Atmung durchgeführt werden, ohne dass nennenswerte Beeinträchtigungen der Bildqualität auftraten. Die erzielten Ergebnisse am Abdomen zeigten weder Fehlzuordnungen von Fett- und Wasserpixeln noch verbleibende Bandingartefakte.
Ein Nachteil der gewöhnlichen Dixon-basierten Fett-Wasser-Separation ist es, dass mehrere separate Bilder zu verschiedenen Echozeiten benötigt werden. Dies führt zu einer entsprechenden Verlängerung der zugehörigen Messzeit. Abhilfe schafft hier die Verwendung einer Multiecho-Sequenz. Wie gezeigt werden konnte, ermöglicht eine derartige Kombination die robuste, bandingfreie Fett-Wasser-Separation in klinisch akzeptablen Messzeiten.
DYPR-SSFP erlaubt die Entfernung von Bandingartefakten selbst bei starken Magnetfeldinhomogenitäten. Dennoch ist es möglich, dass Signalauslöschungen aufgrund des Effekts der Intravoxeldephasierung verbleiben. Dieses Problem tritt primär bei der Bildgebung von Implantaten oder am Ultrahochfeld auf. Als Abhilfe hierfür wurde die Kombination von DYPR-SSFP mit der sogenannten z-Shim-Technik untersucht, was die Entfernung dieser Artefakte auf Kosten einer erhöhten Messzeit ermöglichte.
Die mit DYPR-SSFP akquirierten radialen Projektionen weisen aufgrund des angewendeten dynamischen Phasenzyklus leicht verschiedene Signallevel und Phasen auf. Diese Tatsache zeigt sich durch inkohärente Bildartefakte, die sich jedoch durch eine Erhöhung der Projektionsanzahl effektiv reduzieren lassen. Folglich bietet es sich in diesem Kontext an, Anwendungen zu wählen, bei denen bereits intrinsisch eine verhältnismäßig hohe Anzahl von Projektionen benötigt wird. Hierbei hat sich gezeigt, dass neben der hochaufgelösten Bildgebung die Wahl einer 3D radialen Trajektorie eine aussichtsreiche Kombination darstellt. Die in der vorliegenden Arbeit vorgestellte 3D DYPR-SSFP-Technik erlaubte so die isotrope bandingfreie bSSFP-Bildgebung, wobei die Messzeit im Vergleich zu einer gewöhnlichen bSSFP-Akquisition konstant gehalten werden konnte. Verbleibende, durch den dynamischen Phasenzyklus hervorgerufene Artefakte konnten effektiv mit einem Rauschunterdrückungsalgorithmus reduziert werden. Anhand Probandenmessungen wurde gezeigt, dass 3D DYPR-SSFP einen aussichtsreichen Kandidaten für die Bildgebung von Hirnnerven sowie des Bewegungsapparats darstellt.
Während die DYPR-SSFP-Methode sowie die darauf beruhenden Weiterentwicklungen effiziente Lösungen für das Problem der Bandingartefakte bei der bSSFP-Bildgebung darstellen, adressiert die vorgestellte RA-TOSSI-Technik (RAdial T-One sensitive and insensitive Steady-State Imaging) das Problem des bSSFP-Mischkontrasts. Die Möglichkeit der Generierung von T2-Kontrasten basierend auf der bSSFP-Sequenz konnte bereits in vorausgehenden Arbeiten gezeigt werden. Hierbei wurde die Tatsache ausgenutzt, dass der T1-Anteil des Signalverlaufs nach Beginn einer bSSFP-Akquisition durch das Einfügen von Inversionspulsen in ungleichmäßigen Abständen aufgehoben werden kann. Ein so akquiriertes Bild weist folglich einen reinen, klinisch relevanten T2-Kontrast auf. Die im Rahmen dieser Arbeit vorgestellte Methode basiert auf dem gleichen Prinzip, jedoch wurde anstelle einer gewöhnlichen kartesischen Trajektorie eine radiale Trajektorie in Kombination mit einer KWIC-Filter-Rekonstruktion verwendet. Somit können bei gleichbleibender oder sogar verbesserter Bildqualität aus einem einzelnen, mit RA-TOSSI akquirierten Datensatz verschiedene T2-Wichtungen als auch gewöhnliche T2/T1-Wichtungen generiert werden. Mittels Variation der Anzahl der eingefügten Inversionspulse konnte ferner gezeigt werden, dass es neben den besagten Wichtungen möglich ist, zusätzliche Kontraste zu generieren, bei denen verschiedene Substanzen im Bild ausgelöscht sind. Diese Substanzen können am Beispiel der Gehirnbildgebung Fett, graue Masse, weiße Masse oder CSF umfassen und zeichnen sich neben den reinen T2-Kontrasten durch eine ähnlich hohe klinische Relevanz aus. Die mögliche Bedeutung der vorgestellten Methode für die klinische Verwendung wurde durch Messungen an einer Gehirntumorpatientin demonstriert.
Zusammenfassend lässt sich sagen, dass die im Rahmen dieser Dissertation entwickelten Techniken einen wertvollen Beitrag zur Lösung der eingangs beschriebenen Probleme der bSSFP-Bildgebung darstellen. Mit DYPR-SSFP akquirierte Bilder sind bereits mit bestehender, kommerzieller Rekonstruktionssoftware direkt am Scanner rekonstruierbar. Die Software für die Rekonstruktion von RA-TOSSI-Datensätzen wurde für Siemens Scanner implementiert. Folglich sind beide Methoden für klinische Studien einsetzbar, was gleichzeitig den Ausblick dieser Arbeit darstellt.
The general map-labeling problem is as follows: given a set of geometric objects to be labeled, or features, in the plane, and for each feature a set of label positions, maximize the number of placed labels such that there is at most one label per feature and no two labels overlap. There are three types of features in a map: point, line, and area features. Unfortunately, one cannot expect to find efficient algorithms that solve the labeling problem optimally.
Interactive maps are digital maps that only show a small part of the entire map whereas the user can manipulate the shown part, the view, by continuously panning, zooming, rotating, and tilting (that is, changing the perspective between a top and a bird view). An example for the application of interactive maps is in navigational devices. Interactive maps are challenging in that the labeling must be updated whenever labels leave the view and, while zooming, the label size must be constant on the screen (which either makes space for further labels or makes labels overlap when zooming in or out, respectively). These updates must be computed in real time, that is, the computation must be so fast that the user does not notice that we spend time on the computation. Additionally, labels must not jump or flicker, that is, labels must not suddenly change their positions or, while zooming out, a vanished label must not appear again.
In this thesis, we present efficient algorithms that dynamically label point and line features in interactive maps. We try to label as many features as possible while we prohibit labels that overlap, jump, and flicker. We have implemented all our approaches and tested them on real-world data. We conclude that our algorithms are indeed real-time capable.
Velocity-Map-Imaging Studien an reaktiven Intermediaten: Fulvenallen, C3H2 Isomere und Alkylradikale
(2015)
In der vorliegenden Dissertation wurde die Photodissoziationsdynamik einer Reihe reaktiver Intermediate mittels Velocity-Map-Imaging Spektroskopie untersucht. Diese sind vor allem im Kontext von Verbrennungsprozessen sowie der Chemie im interstellaren Raum von Interesse. Die wichtigsten Erkenntnisse dieser Arbeit sollen nun kurz zusammengefasst werden.
Fulvenallen stellt einen wichtigen Verzweigungspunkt in der Verbrennung von Toluol dar. Die Photodissoziationsdynamik von Fulvenallen, welches pyrolytisch aus Phthalid generiert wurde, konnte im Wellenlängenbereich von 245 - 255 nm aufgeklärt werden. Dabei ist die ermittelte Dissoziationsrate (kH ≈ 107 s-1) in guter Übereinstimmung mit der mittels RRKM vorhergesagten Rate. In VMI-Experimenten zeigten die, durch Photodissoziation abstrahierten, Wasserstoffatome eine isotrope Winkelverteilung, wobei diese einen Anteil an der Überschussenergie von <fT>= 0:09 in Form von kinetischer Energie besaßen. Die Photodissoziation von Fulvenallen erfolgt statistisch ohne nennenswerte Rückbarriere. Sowohl Winkel- als auch Energieverteilung sprechen für den folgenden Dissoziationsmechanismus: Fulvenallen wird durch ein Photon in den D1A1 Zustand angeregt, aus dem es durch interne Konversion schnell in den elektronischen Grundzustand relaxiert, aus dem es anschließend in einem statistischen Prozess dissoziiert.
Spezies der Zusammensetzung C3H2 wurden im interstellaren Raum und in Flammenexperimenten beobachtet. In dieser Arbeit wurden zwei Isomere, Propargylen und Cyclopropenyliden, untersucht.
Die Photodissoziation von Propargylen wurde bei einer Anregungswellenlänge von 250 nm untersucht. In den VMI-Experimenten wurden Wasserstoffatome mit einem Erwartungswert der kinetischen Energie von <ET>= 0.53 eV beobachtet, was einem Anteil an der Überschussenergie von <fT>= 0.48 entspricht. Diese von Propargylen abstrahierten H-Atome waren trotz der hohen Translationsenergie mit einem Anisotropieparameter von = -0.05 nur leicht anisotrop verteilt. Durch den Vergleich mit quanten-klassischen Dynamik Simulationen ließ sich folgendes Bild der Dissoziation gewinnen: Propargylen wird mit 250 nm in den sechsten angeregten Triplett-Zustand T6 angeregt. Die anschließende Dissoziation ist direkt und erfolgt in ca. 200 fs aus T4 - T6. Der geringe Anisotropiegrad wurde durch einen Dissoziationsprozess erklärt, bei dem µT und die gebrochene C-H Bindung annähernd im magischen Winkel zueinander angeordnet sind.
Die Photodissoziation von Cyclopropenyliden wurde bei einer Anregungswellenlänge von 271 nm untersucht. Dabei wurden die Experimente an zwei unterschiedlichen Radikalvorläufern, 3-Chlorcyclopropen und einem Quadricyclanderivat, durchgeführt. Diese führten im Wesentlichen zu denselben Ergebnissen. Die VMI-Experimente zeigen, dass in der Photodissoziation von Cyclopropenyliden die Hälfte der Überschussenergie in die Translation der Wasserstoffatome fließt (<fT>= 0:50). Aus der Winkelverteilung der abstrahierten Wasserstoffatome ergab sich eine isotrope Verteilung ( = 0). Der Vergleich mit quantendynamischen Simulationen erlaubt folgende Aussagen über den Dissoziationsmechanismus: Cyclopropenyliden wird mit einem Photon mit 271 nm in den zweiten angeregten Singulett-Zustand angeregt. Durch zwei konische Durchschneidungen relaxiert es in den elektronischen Grundzustand. Dabei kann die zyklische Struktur aufgebrochen und ein lineares Isomer gebildet werden. Die Berechnungen sagen ein Verhältnis cyklischer zu offenkettiger Struktur (Bruch der C=C Doppelbindung) von ca. 75 : 20 voraus. Die Dissoziation erfolgt annähernd ideal statistisch aus dem elektronischen Grundzustand. Für beide Isomere ergab sich eine sehr gute Übereinstimmung zwischen Theorie und Experiment.
Alkylradikale spielen ebenfalls eine wichtige Rolle in der interstellaren und der Verbrennungschemie und können als prototypische offenschalige Systeme angesehen werden. In der vorliegenden Arbeit wurde die Photodissoziationsdynamik des i-Propyl- und des t-Butylradikals untersucht und die Ergebnisse mit früheren VMI-Studien am Ethylradikal verglichen. Die Translationsenergieverteilung der in der Photodissoziation erzeugten H-Atome ist für alle drei Radikale bimodal. Dabei sind die Wasserstoffatome, welche ihr Maximum in der Translationsenergieverteilung bei niedrigen kinetischen Energien erreichen, isotrop verteilt. Die H-Atome mit hoher kinetischer Energie sind anisotrop verteilt. Aus dem Vergleich mit älteren Arbeiten wurde ein möglicher Dissoziationsmechanismus für die Alkylradikale erarbeitet. Dieser basiert auf Rydberg-Valenz-Wechselwirkungen und kann beide beobachteten Wasserstoffatomkanäle erklären. Außerdem kann damit ein möglicher C-C Bindungsbruch und die Bildung eines Methylradikals erklärt werden, welche für t-Butyl in der Literatur bereits beobachtet wurde. Für eine solide theoretische Basis sind jedoch weitere umfassende quantenchemische und quantendynamische Studien erforderlich.
Methyliodid zählt, was die Photodissoziation anbelangt, zu den am besten untersuchten
Molekülen. Die in dieser Arbeit durchgeführten VMI-Experimente bezüglich der Photodissoziation von Methyliodid dienten in erster Linie als Kalibrierexperimente der Apparatur für schwerere Massen als Wasserstoff. Dabei zeigten die Experimente eine qualitativ gute Übereinstimmung mit früheren Studien, wodurch die Kalibrierparameter ermittelt werden konnten. Außerdem wurde die große Absorption bei 266 nm genutzt um die neue Photolysequelle in Betrieb zu nehmen. Damit ist es zukünftig möglich, pyrolytisch nicht zugängliche Radikale, wie z.B. Radikale, deren ungepaartes Elektron an einem Sauerstoffatom lokalisiert ist, zu erzeugen. Des Weiteren wurden pyrolytisch und photolytisch erzeugte freie Radikale miteinander verglichen. Dabei zeigte sich, dass die Photolyse Radikale mit geringerer interner Energie generiert, wobei die Pyrolyse eine deutlich höhere Konversionseffizienz besitzt. Aufgenommene Images bei unterschiedlichen Pyrolyseleistungen erlaubten die Abschätzung der effektiven Temperatur des Molekularstrahls. Diese Erkenntnis ist besonders im Hinblick auf die Diskussion zukünftiger Pyrolyseexperimente interessant.
As organic semiconductors gain more importance for application, research into their properties has become necessary. This work investigated the exciton and charge transport properties of organic semiconducting crystals. Based on a hopping approach, protocols have been developed for the calculation of Charge mobilities and singlet exciton diffusion coefficients. The protocols do not require any input from experimental data except for the x-ray crystal structure, since all needed quantities can be taken from high-level quantum chemical calculations. Hence, they allow to predict the transport properties of yet unknown compounds for given packings, which is important for a rational design of new materials. Different thermally activated hopping models based on time-dependent perturbation theory were studied for the charge and exciton transport; i. e. the spectral overlap approach, the Marcus theory, and the Levich-Jortner theory. Their derivations were presented coherently in order to emphasize the different levels of approximations and their respective prerequisites. A short reference was made to the empirical Miller-Abrahams hopping rate. Rate equation approaches to calculate the stationary charge carrier mobilities and exciton diffusion coefficients have been developed, which are based on the master equation. The rate equation approach is faster and more efficient than the frequently used Monte Carlo method and, therefore, provides the possibility to study the anisotropy of the transport parameters and their three-dimensional representation in the crystal. The Marcus theory, originally derived for outer sphere electron transfer in solvents, had already been well established for charge transport in organic solids. It was shown that this theory fits even better for excitons than for charges compared with the experiment. The Levich-Jortner theory strongly overestimates the charge carrier mobilities and the results deviate even stronger from the experiment than those obtained with the Marcus theory. The latter contains larger approximations by treating all vibrational modes classically. The spectral overlap approach in combination with the developed rate equations leads to even quantitatively very good results for exciton diffusion lengths compared to experiment. This approach and the appendant rate equations have also been adapted to charge transport. The Einstein relation, which relates the diffusion coefficient with the mobility, is important for the rate equations, which have been developed here for transport in organic crystals. It has been argued that this relation does not hold in disordered organic materials. This was analyzed within the Framework of the Gaussian disorder model and the Miller-Abrahams hopping rate.
Koordinationspolymere auf der Basis von Terpyridin und Dipyridyltriazin: Synthese und Anwendung
(2015)
Der erste Teil der Arbeit untersucht den Einsatzes von 4,6-Di-(pyrid-2´-yl)-1,3,5-triazin als Baustein für Metallo-supramolekulare Polyelektrolyte. Die dafür nötigen ditopen Liganden werden mittels Stille Kreuzkupplungen dargestellt. Die Absorptions- und Fluoreszenzeigenschaften können durch den Einbau von Oligothiophenen eingestellt werden.
Im zweiten Teil der Arbeit werden die elektrorheologischen Eigenschaften von Metallo-supramolekularen Polyelektrolyten untersucht. Zu diesem Zweck werden die Koordinationspolymere in das Schichtsilikat Montmorillonit interkaliert. Die Interkalation wird mittels verschiedener analytischer Methoden wie Pulverdiffraktometrie, Thermoanalyse oder Infrarotspektroskopie untersucht. Die entstehenden Nanokomposite zeigen einen elektrorheologischen Effekt bei einer geringen Stromdichte.
The role of human Ephrin receptor tyrosine kinase A2 (EphA2) in Chlamydia trachomatis infection
(2015)
Chlamydia trachomatis (Ctr), an obligate intracellular gram negative human pathogen, causes sexually transmitted diseases and acquired blindness in developing countries. The infectious elementary bodies (EB) of Ctr involved in adherence and invasion processes are critical for chlamydial infectivity and subsequent pathogenesis which requires cooperative interaction of several host cell factors. Few receptors have been known for this early event, yet the molecular mechanism of these receptors involvement throughout Ctr infection is not known. Chlamydial inclusion membrane serves as a signaling platform that coordinates Chlamydia-host cell interaction which encouraged me to look for host cell factors that associates with the inclusion membrane, using proteome analysis. The role of these factors in chlamydial replication was analyzed by RNA interference (RNAi) (in collaboration with AG Thomas Meyer). Interestingly, EphrinA2 receptor (EphA2), a cell surface tyrosine kinase receptor, implicated in many cancers, was identified as one of the potential candidates. Due to the presence of EphA2 in the Ctr inclusion proteome data, I investigated the role of EphA2 in Ctr infection. EphA2 was identified as a direct interacting receptor for adherence and entry of C. trachomatis. Pre-incubation of Ctr-EB with recombinant human EphA2, knockdown of EphA2 by siRNA, pretreatment of cells with anti-EphA2 antibodies or the tyrosine kinase inhibitor dasatinib significantly reduced Ctr infection. This marked reduction of Ctr infection was seen with both epithelial and endothelial cells used in this study. Ctr activates EphA2 upon infection and invades the cell together with the activated EphA2 receptor that interacts and activates PI3K survival signal, promoting chlamydial replication. EphA2 upregulation during infection is associated with Ctr inclusion membrane inside the cell and are prevented being translocated to the cell surface. Ephrins are natural ligands for Ephrin receptors that repress the activation of the PI3K/Akt pathway in a process called reverse signaling. Purified Ephrin-A1, a ligand of EphA2, strongly interferes with chlamydial infection and normal development, supporting the central role of these receptors in Chlamydia infection. Overexpression of full length EphA2, but not the mutant form lacking the intracellular cytoplasmic domain, enhanced PI3K activation and Ctr infection. Ctr infection induces EphA2 upregulation and is mediated by activation of ERK signaling pathway. Interfering with EphA2 upregulation sensitizes Ctr-infected cells to apoptosis induced by tumor necrosis factor-alpha (TNF-α) suggesting the importance of intracellular EphA2 signaling.
Collectively, these results revealed the first Ephrin receptor “EphA2” that functions in promoting chlamydial infection. In addition, the engagement of a cell surface receptor at the inclusion membrane is a new mechanism how Chlamydia subverts the host cell and induces apoptosis resistance. By applying the natural ligand Ephrin-A1 and targeting EphA2 offers a promising new approach to interfere with Chlamydia infection. Thus, the work provides the evidence for a host cell surface tyrosine kinase receptor that is exploited for invasion as well as for receptor-mediated intracellular signaling to facilitate the chlamydial replication.
Knowledge-based systems (KBS) face an ever-increasing interest in various disciplines and contexts. Yet, the former aim to construct the ’perfect intelligent software’ continuously shifts to user-centered, participative solutions. Such systems enable users to contribute their personal knowledge to the problem solving process for increased efficiency and an ameliorated user experience. More precisely, we define non-functional key requirements of participative KBS as: Transparency (encompassing KBS status mediation), configurability (user adaptability, degree of user control/exploration), quality of the KB and UI, and evolvability (enabling the KBS to grow mature with their users). Many of those requirements depend on the respective target users, thus calling for a more user-centered development. Often, also highly expertise domains are targeted — inducing highly complex KBs — which requires a more careful and considerate UI/interaction design. Still, current KBS engineering (KBSE) approaches mostly focus on knowledge acquisition (KA) This often leads to non-optimal, little reusable, and non/little evaluated KBS front-end solutions.
In this thesis we propose a more encompassing KBSE approach. Due to the strong mutual influences between KB and UI, we suggest a novel form of intertwined UI and KB development. We base the approach on three core components for encompassing KBSE:
(1) Extensible prototyping, a tailored form of evolutionary prototyping; this builds on mature UI prototypes and offers two extension steps for the anytime creation of core KBS prototypes (KB + core UI) and fully productive KBS (core KBS prototype + common framing functionality). (2) KBS UI patterns, that define reusable solutions for the core KBS UI/interaction; we provide a basic collection of such patterns in this work. (3) Suitable usability instruments for the assessment of the KBS artifacts. Therewith, we do not strive for ’yet another’ self-contained KBS engineering methodology. Rather, we motivate to extend existing approaches by the proposed key components. We demonstrate this based on an agile KBSE model.
For practical support, we introduce the tailored KBSE tool ProKEt. ProKEt offers a basic selection of KBS core UI patterns and corresponding configuration options out of the box; their further adaption/extension is possible on various levels of expertise. For practical usability support, ProKEt offers facilities for quantitative and qualitative data collection. ProKEt explicitly fosters the suggested, intertwined development of UI and KB. For seamlessly integrating KA activities, it provides extension points for two selected external KA tools: For KnowOF, a standard office based KA environment. And for KnowWE, a semantic wiki for collaborative KA. Therewith, ProKEt offers powerful support for encompassing, user-centered KBSE.
Finally, based on the approach and the tool, we also developed a novel KBS type: Clarification KBS as a mashup of consultation and justification KBS modules. Those denote a specifically suitable realization for participative KBS in highly expertise contexts and consequently require a specific design. In this thesis, apart from more common UI solutions, we particularly also introduce KBS UI patterns especially tailored towards Clarification KBS.
Bei den sehr häufigen Sprunggelenksfrakturen von Typ Weber-B und –C ist oftmals nur eine limitierte Belastung für die ersten 6 postoperativen Wochen möglich, was die funktionelle Nachbehandlung erschwert. Dies führt
wahrscheinlich zu einer Steigerung der arbeitsunfähigkeitsdauer. Die aktivkontrollierte
Nachbehandlung bietet unserer Meinung nach ein standarisiertes Verfahren, das eine selbstständige, regelmäßige und sichere Handhabung erlaubt, welche man in der Rehabilitation von operativ versorgten
Sprunggelenksfrakturen nutzen könnte. Das Ziel der Studie war herauszufinden, ob der Einsatz einer Aktiv-kontrollierten Bewegungsschiene (ACM) nach operativ versorgten Sprunggelenksbrüchen des TypesDanis-
Weber-B und -C mit der Notwendigkeit einer Teilbelastung von 6 Wochen postoperativ einen Einfluss auf die Ergebnisse nach 6 und 12 Wochen hat. In der Literatur wurde keine Studie über den Einfluss einer solchen
Bewegungsschiene im Vergleich zu einer alleinigen Physiotherapie auf den Ergebnissen nach operativ versorgten Sprunggelenksbrüchen gefunden. Als
einzige Studie dieser Art haben wir herausgefunden, dass dies zu einer besseren Funktion des verletzten Sprunggelenkes und zu einer kürzeren
Arbeitsunfähigkeitsdauer führt. Dadurch kann ein sozioökonomischer Vorteil erzielt werden.
Synthese siliciumhaltiger Wirkstoffe und Synthese-Bausteine des 4-Silapiperidin-Typs:
Im Rahmen der systematischen Untersuchungen unseres Arbeitskreises zur C/Si-Bioisosterie wurde für bereits bekannte σ-Rezeptor-Antagonisten eine neue verbesserte Syntheseroute entwickelt, wobei die Endprodukte jeweils in einer sechsstufigen Synthese dargestellt und als entsprechende Hydrochloride isoliert wurden.
Ein weiteres Teilprojekt der vorliegenden Arbeit betraf die Entwicklung einer Syntheseroute zur Darstellung von Sila-L-741,626, dem Sila-Analogon des selektiven D2-Dopamin-Rezeptorantagonisten L-741,626.
In einem weiteren Teilprojekt der vorliegenden Arbeit wurde ein neuer, säurefreier Weg zu 4 Silapiperidin-Bausteinen mit NH-Funktion entwickelt, der eine Staudinger-Reaktion als ringschließenden Syntheseschritt beinhaltet. Am Beispiel einer Modellverbindung, die in zwei alternativen jeweils fünfstufigen Synthesen ausgehend von Dichlordiphenylsilan dargestellt und als Hydrochlorid isoliert wurde, konnte die neue Syntheseroute erfolgreich ausgearbeitet werden. Die anhand der Modellverbindung erfolgreich getestete Syntheseroute konnte im Folgenden auf ein Zielmolekül angewendet werden, das anstatt einer inerten Phenyl-Gruppe die säurelabilere 4-Methoxyphenyl- (MOP-) Gruppe trägt.
Synthese siliciumhaltiger Wirkstoffe und Synthese-Bausteine des 4-Silacyclohexan-1-on- und (4-Silacyclohexan-1-yl)amin-Typs:
Im Zusammenhang mit unseren systematischen Untersuchungen zur C/Si-Bioisosterie wurde Sila-pramiverin dargestellt. Dies gelang in einer vierstufigen Synthese, ausgehend von Dichlordiphenylsilan. Im Zuge dieser Synthese fand Brown’s DCME-Prozess Anwendung, um in einer Eintopf-Reaktion das entsprechende 4-Silacyclohexan-1-on und daraus durch anschließende reduktive Aminierung mit Isopropylamin Sila-pramiverin erstmals darzustellen.
Analog zur Synthese von Sila-pramiverin konnten ebenfalls Synthese-Bausteine des 4 Silacyclohexan-1-on-Typs sowie des (4-Silacyclohexan-1-yl)amin-Typs unter Verwendung der 4 Methoxyphenyl- (MOP ), 2,6-Dimethoxyphenyl- (DMOP-) bzw. 2,4,6-Trimethoxyphenyl- (TMOP-) Schutzgruppe dargestellt werden.
In einer Machbarkeitsstudie wurde zudem unter selektiver Abspaltung der 4 Methoxyphenyl- (MOP ), 2,6-Dimethoxyphenyl- (DMOP-) bzw. 2,4,6-Trimethoxyphenyl- (TMOP-) Schutzgruppe der phenylierten 4 Silacyclohexan-1-one mittels Chlorwasserstoff das entsprechende Chlorsilan dargestellt.
Synthese siliciumhaltiger Synthese-Bausteine des 4-Silatetrahydropyran-Typs:
Eine fast gänzlich unerforschte Klasse siliciumhaltiger Heterocyclen stellen 4 Silatetrahydropyrane dar. Im Rahmen der vorliegenden Arbeit konnte zunächst anhand einer Modellstudie das 4,4-Diphenyl-4-silatetrahydropyran dargestellt werden. Die für die Modellverbindung ausgearbeitete Syntheseroute konnte schließlich auf die Synthese der 4 Methoxyphenyl- (MOP-) und 2,6-Dimethoxyphenyl- (DMOP-) substituierten 4 Silatetra¬hydropyrane übertragen werden. Diese konnten jeweils in einer vierstufigen Synthese dargestellt werden. Lediglich die Synthese der 2,4,6-Trimethoxyphenyl- (TMOP-) substituierten 4 Silatetra¬hyropyrane gelang aufgrund der Instabilität der mesylierten Zwischenstufen nicht.
At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios.
Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing.
The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions.
Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping.
Die vorliegende Arbeit behandelt TRAIL-induzierte Apoptose und Nekroptose in verschiedenen Zelllinien. Im Speziellen wurden die verschiedenen Funktionen des TNF receptor-associated factor 2 (TRAF2) untersucht. Hierzu wurde ein transienter Knockdown etabliert und dessen Wirkung auf die Suszeptibilität der Zellen gegenüber dem Zytokin TRAIL untersucht. Es konnte gezeigt werden, dass ein Knockdown von TRAF2 nicht nur zur Sensitivierung für Apoptose führt, sondern auch in Nekroptose-kompetenten Zellen zu einer Verstärkung der durch Caspaseinhibition mittels zVAD-fmk nach TRAIL-Stimulation induzierten Nekroptose führt. Mittels des Zytokins Fc-TWEAK wurde Fn14-vermittelt TRAF2 aus dem Zytosol in ein Triton X100-unlösliches Kompartiment rekrutiert und dadurch physiologisch depletiert. Dies führte zwar kaum zu gesteigerter TRAIL-abhängiger Apoptose, sensitivierte jedoch analog zum TRAF2-Knockdown RIP3-exprimierende Zellen für Nekroptose. Durch Vergleich RIP3-negativer (HeLa-Leervektor) mit RIP3-exprimierenden Zellen (HeLa RIP3, HT29, HaCaT) konnte die Essentialität von RIP3 für die Nekroptose herausgestellt werden und Einsatz des RIP1-Kinase-Inhibitors Necrostatin-1 sowie des MLKL-Inhibitors Necrosulfonamide belegte die Beteiligung der Nekroptosomkomponenten RIP1 und MLKL. Antagonismus putativen autokrinen TNFs bewies, dass es sich bei dem durch Fc-TWEAK verstärkten Zelltod um einen direkten TRAIL-Effekt handelte und Inhibition kanonischen NFkBs durch IKK2-Inhibitor TPCA-1, dass die TRAF2-Knockdown-vermittelte Sensitivierung gegenüber TRAIL nicht auf verändertes NFkB-Signalling zurückzuführen ist. Einsatz des SMAC-Mimetikums BV6 rekapitulierte zudem stark das im TRAF2-Knockdown Gesehene und unterstrich die Bedeutung der cIAPs. Immunpräzipitation von Caspase 8 unter nekroptotischen Bedingungen zeigte bei TRAF2-Knockdown eine Depletion von TRAF2 und cIAP1/2 sowie RIP1 und RIP3 aus dem Komplex mit Caspase 8. Insgesamt wird deutlich, dass TRAF2 einerseits antiapoptotisch wirkt als K48-Ubiquitinligase, die die Halbwertszeit aktiver Caspase 8-Komplexe determiniert und andererseits eine antinekroptotische Funktion hat, da es durch Rekrutierung von cIAP1/2 an RIP1 die TRAIL-induzierte Nekroptose verhindert, wenn die Caspasen inhibiert sind.
Microbial species (bacteria and archaea) in the gut are important for human health in various ways. Not only does the species composition vary considerably within the human population, but each individual also appears to have its own strains of a given species. While it is known from studies of bacterial pan-genomes, that genetic variation between strains can differ considerably, such as in Escherichia coli, the extent of genetic variation of strains for abundant gut species has not been surveyed in a natural habitat. This is mainly due to the fact that most of these species cannot be cultured in the laboratory. Genetic variation can range from microscale genomic rearrangements such as small nucleotide polymorphism (SNP) to macroscale large genomic rearrangements like structural variations. Metagenomics offers an alternative solution to study genetic variation in prokaryotes, as it involves DNA sequencing of the whole community directly from the environment. However, most metagenomic studies to date only focus on variation in gene abundance and hence are not able to characterize genetic variation (in terms of presence or absence of SNPs and genes) of gut microbial strains of individuals.
The aim of my doctorate studies was therefore to study the extent of genetic variation in the genomic sequence of gut prokaryotic species and its phenotypic effects based on: (1) the impact of SNP variation in gut bacterial species, by focusing on genes under selective pressure and (2) the gene content variation (as a proxy for structural variation) and their effect on microbial species and the phenotypic traits of their human host.
In the first part of my doctorate studies, I was involved in a project in which we created a catalogue of 10.3 million SNPs in gut prokaryotic species, based on metagenomes. I used this to perform the first SNP-based comparative study of prokaryotic species evolution in a natural habitat. Here, I found that strains of gut microbial species in different individuals evolve at more similar rates than the strains within an individual. In addition, I found that gene evolution can be uncoupled from the evolution of its originating species, and that this could be related to selective pressure such as diet, exemplified by galactokinase gene (galK). Despite the individuality (i.e. uniqueness of each individual within the studied metagenomic dataset) in the SNP profile of the gut microbiota that we found, for most cases it is not possible to link SNPs with phenotypic differences. For this reason I also used gene content as a proxy to study structural variation in metagenomes.
In the second part of my doctorate studies, I developed a methodology to characterize the variability of gene content in gut bacterial species, using metagenomes. My approach is based on gene deletions, and was applied to abundant species (demonstrated using a set of 11 species). The method is sufficiently robust as it captures a similar range of gene content variability as has been detected in completely sequenced genomes. Using this procedure I found individuals differ by an average of 13% in their gene content of gut bacterial strains within the same species. Interestingly no two individuals shared the same gene content across bacterial species. However, this variation corresponds to a lower limit, as it is only accounts for gene deletion and not insertions. This large variation in the gene content of gut strain was found to affect important functions, such as polysaccharide utilization loci (PULs) and capsular polysaccharide synthesis (CPS), which are related with digestion of dietary fibers.
In summary, I have shown that metagenomics based approaches can be robust in characterizing genetic variation in gut bacterial species. I also illustrated, using examples both for SNPs and gene content (galK, PULs and CPS), that this genetic variation can be used to predict the phenotypic characteristics of the microbial species, as well as predicting the phenotype of their human host (for example, their capacity to digest different food components). Overall, the results of my thesis highlight the importance of characterizing the strains in the gut microbiome analogous to the emerging variability and importance of human genomics.
Protein kinases as targets for the development of novel drugs against alveolar echinococcosis
(2015)
The metacestode larval stage of the fox tapeworm Echinococcus multilocularis is the causative agent of alveolar echinococcosis (AE), one of the most lethal zoonosis of the northern hemisphere. The development of metacestode vesicles by asexual multiplication and the almost unrestricted infiltrative growth within the host organs is ensured from a population of undifferentiated, proliferative cells, so-called germinative cells. AE treatment options include surgery, if possible, as well as Benzimidazole-based chemotherapy (BZ). Given that the cellular targets of BZs, the -tubulins, are highly conserved between cestodes and humans, the chemotherapy is associated with considerable side-effects. Therefore, BZ can only be applied in parasitostatic doses and has to be given lifelong. Furthermore, the current anti-AE chemotherapy is ineffective in eliminating the germinative cell population of the parasite, which leads to remission of parasite growth as soon as therapy is discontinued.
This work focuses on protein kinases involved in the proliferation and development of the parasite with the intention of developing novel anti-AE therapies. Polo-like kinases (Plks) are important regulators of the eukaryotic cell cycle and are involved in the regulation and formation of the mitotic spindles during the M-phase of the cell cycle. Plks have already been shown to be associated with deregulated cellular growth in human cancers and have been investigated as novel drug targets in the flatworm parasite Schistosoma mansoni. In the first part of this work, the characterisation of a novel and druggable parasite enzyme, EmPlk1, which is homologous to the polo-like kinase 1 (Plk1) of humans and S. mansoni (SmPlk1), is presented. Through in situ hybridisation, it could be demonstrated that emplk1 is specifically expressed in the Echinococcus germinative cells. Upon heterologous expression in the Xenopus oocyte system, EmPlk1 induced germinal vesicle breakdown, thus indicating that it is an active kinase. Furthermore, BI 2536, a compound originally designed to inhibit the human ortholog of EmPlk1, inhibited the EmPlk1 activity at a concentration of 25 nM. In vitro treatment of parasite vesicles with similar concentrations of BI 2536 led to the elimination of the germinative cells from Echinococcus larvae, thus preventing the growth and further development of the parasite. In in vitro cultivation systems for parasite primary cells, BI 2536 effectively inhibited the formation of new metacestode vesicles from germinative cells. Thus, BI 2536 has profound anti-parasitic activities in vitro at concentrations well within the range of plasma levels measured after the administration of safe dosages to patients (50 nM after 24 h). This implies that EmPlk1 is a promising new drug target for the development of novel anti-AE drugs that would specifically affect the parasite’s stem cell population, namely the only parasite cells capable of proliferation. In addition to the chemotherapeutic aspects of this work, the inhibitor BI 2536 could be further used to study the function of stem cells in this model organism, utilising a method of injection of parasite stem cells into metacestode vesicles, for instance, as has been developed in this work.
In the second part of this work, a novel receptor tyrosine kinase, the Venus flytrap kinase receptor (EmVKR) of E. multilocularis has been characterised. Members of this class of single-pass transmembrane receptors have recently been discovered in the related trematode S. mansoni and are associated with the growth and differentiation of sporocyst germinal cells and ovocytes. The ortholog receptor in EmVKR is characterised by an unusual domain composition of an extracellular Venus flytrap module (VFT), which shows significant similarity to GABA receptors, such as the GABAB receptor (γ-amino butyric acid type B) and is linked through a single transmembrane domain to an intracellular tyrosine kinase domain with similarities to the kinase domains of human insulin receptors. Based upon the size (5112bp) of emvkr and nucleotide sequence specificities, efforts have been made to isolate the gene from cell culture samples to study the ligand for the activation of this receptor type in Xenopus oocytes. To date, this type of receptor has only been described in invertebrates, thus making it an attractive target for drug screening. In a first trial, the ATP competitive inhibitor AG 1024 was tested in our in vitro cell culture.
In conclusion, the EmVKR represents a novel receptor tyrosine kinase in E. multilocularis. Further efforts have to be made to identify the activating ligand of the receptor and its cellular function, which might strengthen the case for EmVKR as a potential drug target. The successful depletion of stem cells in the metacestode vesicle by the Plk1 inhibitor BI 2536 gives rise to optimising the chemical component for EmPlk1 as a new potential drug target. Furthermore, this inhibitor opens a new cell culture technique with high potential to study the cellular behaviour and influencing factors of stem cells in vitro.
Weltweit zählt die Tuberkulose zu den tödlichsten und am weitesten verbreiteten Infektionskrankheiten. Missstände in der ohnehin komplexen Therapie einerseits und fehlende Entwicklung neuartiger adäquater Wirkstoffe andererseits, führten zur Entstehung von multi- und sogar total-resistenten Keimen. Der Haupterreger ist das Mycobacterium tuberculosis. Charakteristisch für Mykobakterien ist eine dicke und undurchlässige wachsartige Zellwand mit einem großen Anteil an bestimmten Fettsäuren. Die mykobakterielle Biosynthese dieser Fettsäuren unterscheidet sich stark von eukaryotischen Zellen. Die selektive Beeinflussung dieses Systems führt zu nicht überlebensfähigen Mykobakterien und stellt somit ein idealer Angriffspunkt für Arzneistoffe dar.
Die vorliegende Arbeit befasst sich mit der Entwicklung neuartiger direkter Hemmstoffe von InhA, einem für den Zellwandaufbau des Mycobacterium tuberculosis essenziellem Enzym.
Es wurden zwei photometrische gekoppelt-enzymatische Assay-Systeme im 96-Well-Format entwickelt, die sich das Absorptions- bzw. Fluoreszenzverhalten des Coenzyms NADH zu Nutze machen.
Das hierzu benötigte Enzym InhA wurde überexprimiert und aufgereinigt. Mehrere Synthesemethoden für das im Testverfahren verwendete Substrat 2-trans-Octenoyl-CoA (2toCoA) wurden etabliert.
Die etablierten Assay-Systeme wurden mit Hilfe von Positivkontrollen validiert. Grundlegende Experimente zur Errichtung einer substratunabhängigen orthogonalen Methode mittels MST wurden getätigt.
Basierend auf den Ergebnissen eines in Vorarbeiten durchgeführten virtuellen Screenings wurden erste potenzielle Inhibitoren kommerziell erworben und getestet. Nachfolgend wurde mit der Synthese von Derivaten begonnen, welche auf iterativem Wege optimiert wurden (Testung – Docking – Synthese neuer Derivate). Hierdurch wurde eine umfassende Substanzbibliothek bestehend aus insgesamt 254 Verbindungen aufgebaut. Diese setzte sich aus unterschiedlich substituierten Thiazolidin-2,4-dionen- und Thiazolin-2-on-Derivaten, Derivaten der ähnlich strukturierten Fünfring-Heterozyklen Rhodanine, Thiohydantoine und Hydantoine und weiteren Strukturklassen bestehend aus Biphenylether-, Pyrrolidoncarboxamid-, Pyridon- und Sulfonamid-Derivaten zusammen. Die Verbindungen wurden entweder selbst synthetisiert, kommerziell erworben oder von Kooperationspartnern bezogen. Neben der Etablierung zuverlässiger und effizienter Syntheserouten stand hierbei ebenso die strukturelle Aufklärung der stereochemischen Verhältnisse der Produkte im Mittelpunkt.
Die Verbindungen der aufgebauten Substanzbibliothek wurden mit dem etablierten InhA-Testsystem auf ihre inhibitorischen Eigenschaften gegenüber InhA untersucht. Soweit möglich wurden Struktur-Aktivitätsbeziehungen abgeleitet. Insbesondere einige disubstituierte Thiazolidindione zeigten eine schwache Hemmung von bis zu 25 %. Die zur Aufklärung des Inhibitionsmechanismus durchgeführten Experimente deuten auf eine unkompetitive Hemmung hin. Bei den direkten Testungen an Mykobakterien konnten die inhibitorischen Eigenschaften hingegen nicht bestätigt werden.
Weiterhin wurden Testungen an Cystein- und Serin-Proteasen von Erregern anderer Infektionskrankheiten durchgeführt. Das Thiazolinon SV102 wurde hierbei als nicht-kompetitiver Hemmstoff von Cathepsin B mit einem Ki-Wert von 1.3 µM identifiziert. Die Synthese und Testung weiterer Thiazolin-2-on-Derivate sowie Cokristallisationsversuche mit Cathepsin B sind somit in Betracht zu ziehen. Die getesteten Thiazolidindion-Derivate der Substanzbibliothek zeigten hierbei mittelstarke bis gute Hemmeigenschaften, die ebenfalls an den Erregern beobachtbar waren. Relativiert werden diese vielversprechenden Ergebnisse allerdings durch eine ebenfalls zu beobachtende Zytotoxizität. Weiterhin konnte eine antibakterielle Wirkung der untersuchten Verbindungen in zellulären Assay-Systemen nicht gezeigt werden.
Abschließend wurde die Eignung der Thiazolidindione und verwandter Fünfringheterozyklen als Leitstruktur für potenzielle InhA-Inhibitoren, aber auch die Eignung dieser Verbindungsklasse als potenzielle Leitstruktur per se diskutiert.
Zur Charakterisierung der Wechselwirkungen zwischen organischen Dispergiermitteln und nanoskaligen Oberflächen stellen Komplexe aus Kohlenstoffnanoröhren und (Bio-)Polymeren aufgrund der großen Oberfläche der Nanoröhren und der kommerziellen Verfügbarkeit fluoreszenzmarkierter DNA-Oligomere unterschiedlicher Länge sowie intrinsisch fluoreszierender Polymere ein vielversprechendes Modellsystem dar. Im Rahmen der vorliegenden Dissertation wurden verschiedene Methoden evaluiert, um die Stabilität derartiger Komplexe zu untersuchen und dadurch Rückschlüsse auf das Adsorptionsverhalten der (Bio-)Polymere zu ziehen. Dabei konnte gezeigt werden, dass das publizierte helikale Adsorptionsmodell der DNA auf Kohlenstoffnanoröhren die Resultate der durchgeführten Experimente nur unzureichend beschreiben kann und stattdessen andere Adsorptionskonformationen in Erwägung gezogen werden müssen.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Several aspects of the stability analysis of large-scale discrete-time systems are considered. An important feature is that the right-hand side does not have have to be continuous.
In particular, constructive approaches to compute Lyapunov functions are derived and applied to several system classes.
For large-scale systems, which are considered as an interconnection of smaller subsystems, we derive a new class of small-gain results, which do not require the subsystems to be robust in some sense. Moreover, we do not only study sufficiency of the conditions, but rather state an assumption under which these conditions are also necessary.
Moreover, gain construction methods are derived for several types of aggregation, quantifying how large a prescribed set of interconnection gains can be in order that a small-gain condition holds.
Alle Retroviren prozessieren ihre Pol- und Strukturproteine mit Hilfe der viralen Protease. In dieser Arbeit wurden zentrale Mechanismen der Regulation der foamyviralen Protease untersucht und charakterisiert. Dazu wurde eine chromatographische Virusreinigungsmethode entwickelt und die relative Pol- und Env-Enkapsidierung bestimmt. Foamyviren enthalten weniger Pol als andere Retroviren aber deutlich mehr Env als humane Immunodefizienzviren. Die Pol-Inkorporation könnte durch die limitierte Prozessierung mit nur einer einzigen Schnittstelle in Gag und Pol kompensiert werden. Deshalb wurde untersucht, ob die foamyvirale Protease ein beschränktes Schnittstellenrepertoire aufweist. In Zellkulturen sind die Schnitt-stellenpositionen P2’ und P2 auf die Aminosäurereste Valin und Valin/Asparagin beschränkt. Demnach hat die foamyvirale Protease ein eingeschränkteres Schnittstellenrepertoire als die Protease des humanen Immunodefizienzvirus. Weiterhin wurde hier gezeigt, dass die vollständige reverse Transkription die Prozessierung von Gag voraussetzt und Proteaseaktivität-defiziente oder Gag-Schnittstellen-defiziente Viren keine vollständige cDNA bilden können. Demnach kompensieren Foamyviren die niedrige Proteasekonzentration, indem sie sicherstellen, dass die reverse Transkription erst nach der Gag-Maturation vollendet werden kann.
Weiterhin wird bei humanen Immunodefizienzviren durch die Gag-Maturation die essenzielle Mobilität der wenigen Env-Trimere auf der Hüllmembran getriggert. Die erstmals in dieser Arbeit bei Foamyviren quantifizierte Env-Menge ergab, dass Foamyviren 28 mal mehr Env- pro Gag-Molekül als humane Immunodefizienzviren besitzen. Wahrscheinlich dient dieser hohe Env-Gehalt der Kompensation der eingeschränkten Env-Mobilität, die durch die limitierte Gag-Prozessierung an nur einer carboxyterminalen Schnittstelle verursacht wird.
Da für die Aktivierung der foamyviralen Protease virale Ribonukleinsäure benötigt wird, wurde untersucht, welche Pol-Domänen für die Aktivierung der Protease benötigt werden. Im Gegensatz zur Integrase, deren Deletion in reduzierter Proteaseaktivität resultierte, war die funktionelle RNaseH-Domäne essenziell für die Gag-Prozessierung. Die Substitution der foamyviralen RNaseH durch RNaseH-Domänen von anderen Retroviren resultierte in genomunabhängiger Proteaseaktivität in Zellen und genomabhängiger Proteaseaktivität in den rekombinanten Viren. Demnach scheint die dimerstabilisierende Funktion der RNaseH durch direkte Protein-Protein-Interaktion oder durch unspezifische RNA-Bindung verursacht zu werden.
Im Rahmen dieser Arbeit wurden sehr einfache, flüssigchromatographische Methoden zur Qualitätsanalytik gebräuchlicher Antimalaria-Medikamente (Amodiaquin, Mefloquin, Proguanil sowie die Kombination Artemether/Lumefantrin) entwickelt, die nur wenige, günstig erhältliche Chemikalien (Phosphatpuffer, Methanol) sowie gewöhnliche, kommerzielle RP-18-Säulen benötigen. Sie sind insbesondere zur Anwendung in Laboratorien in Entwicklungsländern geeignet und erfordern keine komplexen HPLC-Instrumente wie beispielsweise Gradientenpumpen oder Säulenthermostate. Der Verzicht auf Ionenpaarreagenzien ermöglicht es, dass eine stationäre Phase für mehr als nur einen einzigen Einsatzzweck verwendet werden kann und dass langwierige Äquilibrier- bzw. Spülschritte nicht notwendig sind. Alle Methoden arbeiten im isokratischen Elutionsmodus und durch die Verwendung kurzer Säulen (125 mm) konnten die jeweiligen Analysenzeiten zusätzlich verringert werden. Hierdurch ist zudem eine Reduzierung des Fließmittelverbrauches möglich.
Während der Methodenentwicklung wurden charakteristische, aus dem Herstellungsweg des jeweiligen Arzneistoffes stammende potentielle Verunreinigungen berücksichtigt. Ihre Bestimmung erlaubt eine Aussage über die Herkunft eines Wirkstoffes bzw. eines Arzneimittels, da das Verunreinigungsmuster einer Substanz oftmals die Zuordnung zu einem bestimmten Herstellungs- bzw. Reinigungsprozess ermöglicht.
Alle Methoden wurden hinsichtlich der Linearität innerhalb des Arbeitsbereiches sowie der Wiederholpräzision charakterisiert. Es wurde eine gute Reproduzierbarkeit gefunden. Die Nachweis- und Bestimmungsgrenzen der untersuchten Verunreinigungen lagen bei einem Level von je 0.1 %. Durch gezielte Variation wurde der Einfluss wechselnder Trenntemperaturen sowie schwankender pH-Werte der jeweiligen mobilen Phase und die hieraus resultierenden Effekte untersucht. Hierbei zeigte sich, dass die Methoden sehr robust gegenüber diesen Einflussgrößen sind und somit für die Anwendung mit einfach ausgestatteten HPLC-Systemen sowie besonders für den Einsatz in tropische Gebieten mit wechselnden klimatischen Bedingungen gut geeignet sind.
Flüssigchromatographische Methoden spielen heute in der pharmazeutischen Analytik vor allem zur Bestimmung der Reinheit eines Arzneistoffes eine herausragende Rolle und sind in nahezu jeder Monographie der wichtigsten Arzneibücher (z. B. im Ph. Eur.) zu finden. Einfach durch-führbare Untersuchungsmethoden, wie beispielsweise die im GPHF-Minilab® angewandte Dünnschichtchromatographie, erfordern im Vergleich zur HPLC weniger komplexe und teure Instrumente und können selbst in entlegenen Gebieten ohne Laboratorium durchführt werden. Sie verfügen allerdings über eine nur sehr geringe Genauigkeit und Reproduzierbarkeit, da sowohl die praktische Durchführung als auch die anschließende Auswertung rein manuell bzw. visuell erfolgt und somit in hohem Maße einer Beeinflussung durch den jeweiligen Analytiker unterworfen ist. Die entwickelten HPLC-Methoden wurden mit dünnschichtchromatographischen Verfahren verglichen, hierbei besonders unter dem Aspekt der visuellen und der instrumentellen Auswertung der Chromatogramme zur Bestimmung des Gehaltes einer unbekannten Probe. Hierbei konnte aufgezeigt werden, dass die Dünnschichtchromatographie der Flüssigchromatographie eindeutig unterlegen ist, insbesondere wenn die Auswertung nicht mittels eines entsprechenden Scanners sondern rein visuell erfolgt: Nur in den wenigsten Fällen ist es möglich, eine annähernd präzise Aussage über den Gehalt zu treffen und zudem ist die Bestimmung der Verwandten Substanzen nur sehr bedingt möglich. Durch den Einsatz von Auftragegeräten bzw. Plattenscannern kann die Genauigkeit zwar signifikant erhöht werden, allerdings sind solche Instrumente im Verhältnis wesentlich teurer als einfache, modulare HPLC-Systeme und zählen heute in den wenigsten Laboratorien zum Standardinventar.
Vereinfachte chromatographische Methoden können ein wichtiges Hilfsmittel für Kontrolllaboratorien in Entwicklungsländern sein, wenn komplexe, etablierte Protokolle nur eingeschränkt angewendet werden können. Durch die Kombination aus dünnschichtchromatographischer Basisanalytik und einer flächendeckenden Untersuchung mittels HPLC lässt sich die Arzneimittelqualität sehr gut überprüfen, die regulatorischen Organe eines Landes entsprechend zu entlasten und die Versorgung der Bevölkerung mit qualitativ einwandfreien Medikamenten zu gewährleisten.
Ein weiterer Teil der Arbeit befasst sich mit der Stabilitätsanalytik individuell hergestellter, Noradrenalin-haltiger Injektionslösungen. Solche Rezepturen werden oftmals in Krankenhausapotheken im Rahmen der Defektur auf Vorrat durch Verdünnen der entsprechenden kommerzieller Fertigarzneimittel mit isotonischer Kochsalzlösung zubereitet, um z. B. für Notfallsituationen am Wochenende die Rezepturen vorrätig zu haben. Durch die Untersuchungen wurde geprüft, inwieweit der übliche Verdünnungsgrad von 0.1 % einen Einfluss auf die Stabilität des Noradrenalins hat und welche Lagerungsbedingungen für die Zubereitungen empfohlen werden können. Nach der Lagerung unter verschiedenen Bedingungen (gekühlt, bei Raumtemperatur sowie jeweils mit bzw. ohne Lichtschutz) konnte gezeigt werden, dass die Gehalte an Noradrenalin bei keiner der untersuchten Lagerungsbedingungen unter einen Wert von 99.0 % fielen. Individuell hergestellte Noradrenalin-Injektionslösungen können somit bis zu sieben Tage im Voraus hergestellt und für die Anwendung am Patienten bereit gehalten werden. Die Lösungen sollten dennoch gekühlt und unter Lichtschutz aufbewahrt werden, um den Abbau des Arzneistoffes und eine mikrobielle Kontamination zu minimieren.
In dieser Dissertation werden die Ergebnisse zur Synthese und Polymerisation gespannter Manganoarenophane vorgestellt. Weiterhin wird die Reaktivität von Bis(benzol)titan und die Synthese von ansa-Verbindungen dieses Komplexes, sowie Untersuchungen zu deren Eigenschaften beschrieben. Zum Vergeleich wird auch der Komplex Bis(mesityl)titan untersucht. Die Polymerisation von zinnverbrückten, gespannten Vanadium-Sandwichkomplexen und die Untersuchungen der paramagnetischen Eigenschaften ist ebenso in dieser Dissertationsschrift beschrieben. Zusätzlich wird die Synthese heteroleptischer Sandwichkomplexe des Scandiums und Yttriums dargestellt, sowie deren Ringsubstitution. Die Vorarbeiten zur Synthese heteroleptischer Sandwichkomplexe der Lanthanoide bildet ebenso einen Bestandteil dieser Schrift, wie die Synthese von ansa-Komplexen des Thorocens und Uranocens via flytrap-Methode.
One of the most popular extensions of the SM is Supersymmetry (SUSY). It is a symmetry relating fermions and bosons and also the only feasible extension to the symmetries of spacetime. With SUSY it is then possible to explain some of the open questions left by the SM while at the same time opening the possibility of gauge unification at a high scale. SUSY theories require the addition of new particles, in particular an extra Higgs doublet and at least as many new scalars as fermions in the SM. Much in the same way that the Higgs boson breaks SU (2)L symmetry, these new scalars can break any symmetry for which they carry a charge through spontaneous symmetry breaking.
Let us assume there is a local minimum of the potential that reproduces the correct phenomenol- ogy for a parameter point of a given model. By exploring whether there are other deeper minima with VEVs that break symmetries we want to conserve, like SU (3)C or U (1)EM , it is possible to exclude regions of parameter space where that happens. The local minimum with the correct phenomenology might still be metastable, so it is also necessary to calculate the probability of tunneling between minima.
In this work we propose and apply a framework to constrain the parameter space of models with many scalars through the minimization of the one-loop eff e potential and the calculation of tunneling times at zero and non zero temperature.After a brief discussion about the shortcomings of the SM and an introduction of the basics of SUSY, we introduce the theory and numerical methods needed for a successful vacuum stability analysis. We then present Vevacious, a public code where we have implemented our proposed framework. Afterwards we go on to analyze three interesting examples.
For the constrained MSSM (CMSSM) we explore the existence of charge- and color- breaking (CCB) minima and see how it constraints the phenomenological relevant region of its parameter space at T = 0. We show that the regions reproducing the correct Higgs mass and the correct relic density for dark matter all overlap with regions suffering from deeper CCB minima.
Inspired by the results for the CMSSM, we then consider the natural MSSM and check the region of parameter space consistent with the correct Higgs mass against CCB minima at T /= 0. We find that regions of parameter space with CCB minima overlap significantly with that reproducing the correct Higgs mass. When thermal eff are considered the majority of such points are then found to have a desired symmetry breaking minimum with very low survival probability. In both these studies we find that analytical conditions presented in the literature fail in dis- criminating regions of parameter space with CCB minima. We also present a way of adapting our framework so that it runs quickly enough for use with parameter fit studies.
Lastly we show a different example of using vacuum stability in a phenomenological study. For the BLSSM we investigate the violation of R-parity through sneutrino VEVs and where in parameter space does this happen. We find that previous analyses in literature fail to identify regions with R-parity conservation by comparing their results to our full numerical analysis.
The learned helplessness phenomenon is a specific animal behavior induced by prior exposure to uncontrollable aversive stimuli. It was first found by Seligman and Maier (1967) in dogs and then has been reported in many other species, e.g. in rats (Vollmayr and Henn, 2001), in goldfishes (Padilla, 1970), in cockroaches (Brown, 1988) and also in fruit flies (Brown, 1996; Bertolucci, 2008). However, the learned helplessness effect in fruit flies (Drosophila melanogaster) has not been studied in detail. Thus, in this doctoral study, we investigated systematically learned helplessness behavior of Drosophila for the first time.
Three groups of flies were tested in heatbox. Control group was in the chambers experiencing constant, mild temperature. Second group, master flies were punished in their chambers by being heated if they stopped walking for 0.9s. The heat pulses ended as soon as they resumed walking again. A third group, the yoked fly, was in their chambers at the same time. However, their behavior didn’t affect anything: yoked flies were heated whenever master flies did, with same timing and durations. After certain amount of heating events, yoked flies associated their own behavior with the uncontrollability of the environment. They suppressed their innate responses such as reducing their walking time and walking speed; making longer escape latencies and less turning around behavior under heat pulses. Even after the conditioning phase, yoked flies showed lower activity level than master and control flies. Interestingly, we have also observed sex dimorphisms in flies. Male flies expressed learned helplessness not like female flies. Differences between master and yoked flies were smaller in male than in female flies. Another interesting finding was that prolonged or even repetition of training phases didn’t enhance learned helplessness effect in flies.
Furthermore, we investigated serotonergic and dopaminergic nervous systems in learned helplessness. Using genetic and pharmacological manipulations, we altered the levels of serotonin and dopamine in flies’ central nervous system. Female flies with reduced serotonin concentration didn’t show helpless behavior, while the learned helplessness effect in male flies seems not to be affected by a reduction of serotonin. Flies with lower dopamine level do not display the learned helplessness effect in the test phase, suggesting that with low dopamine the motivational change in learned helplessness in Drosophila may decline faster than with a normal dopamine level.
The focus of this work was the investigation of energy transfer between charge transfer states. For this purpose the multidimensional chromophores HAB-S, HAB-A, B1 and B2 were synthesised, each consisting of three electron donor and three electron acceptor redox centres linked symmetrically or asymmetrically by the hexaarylbenzene framework. Triarylamines represent in all these compounds the electron donors, whereas the electron poor centres were triarylboranes in B1 and B2 and PCTM centres in HAB-S and HAB-A, respectively. The hexaarylbenzenes were obtained by cobalt catalysed cyclotrimerisation of the respective tolan precursors. In addition, Star was synthesised, which consists of a central PCTM linked to three triarylamin centres by tolan bridging units in a star-like configuration. The hexaarylbenzene S1a/b substituted with six squaraine chromophores could not be realised. It is assumed that the cyclotrimerisation catalyst Co2(CO)8 does not tolerate the essential hydroxyl groups in the tolan precursor S2a. The alternative reaction pathway to execute the cyclotrimerisation reaction first and introduce the hydroxyl groups thereafter failed as well, because the required hexaarylbenzene substituted by six semisquaric acid moieties could not be synthesised. However, energy transfer interactions could be investigated in the tolan precursor S2a with two squaraine units to obtain information about the electronic coupling provided by the tolan bridge. For all multidimensional compounds model molecules were synthesised with only a single donor-acceptor pair (B3, Star-Model and HAB-Model). This allows a separate consideration of energy and charge transfer processes. It has to be stressed that in all before mentioned multidimensional compounds the “through bond” energy transfer interaction between neighbouring IV-CT states is identical to a transfer of a single electron between two redox centres of the same kind (e.g. TAA -> TAA+). The latter can be analysed by electron transfer theory. This situation is observed when the two IV-CT states transferring energy share one redox centre.
All compounds containing PCTM centres were characterised by paramagnetic resonance spectroscopy. Thereby, a weak interaction between the three PCTM units in HAB-S and HAB-A was observed. In addition, when oxidising Star-Model, a strongly interacting singlet or triplet state was obtained. In contrast, signals corresponding to a weakly interacting biradical were obtained for HAB-Model+. This indicates a strong electronic coupling between the redox centres provided by the tolan bridge and a weak coupling when linked by the hexaarylbenzene. This trend is supported by UV/Vis/NIR absorption measurements. The analysis of the observed IV-CT absorption bands by electron transfer theory reveals a weak electronic coupling of V = 340 cm-1 in HAB-Model and a distinctly stronger coupling of V = 1190-2900 cm-1 in Star-Model. In the oxidised HAB-S+, Star+ and Star-Model+ a charge transfer reversed from that of the neutral species, that is, from the PCTM radical to the electron poorer cationic TAA centre, was observed by spectroelectrochemistry. The temporal evolution of the excited states was monitored by ultrafast transient absorption measurements. Within the first picosecond stabilisation of the charge transfer state was observed, induced by solvent rotation. Anisotropic transient absorption measurements revealed that within the lifetime of the excited state (tau = 1-4 ps) energy transfer does not occur in the HABs whereas in the star-like system ultrafast and possibly coherent energy redistribution is observed. Taken this information together the identity between energy transfer and electron transfer in the specific systems were made apparent. It has to be remarked that neither energy transfer nor charge transfer theory can account for the very fast energy transfer in Star.
The electrochemical and photophysical properties of B1 and B2 were investigated by cyclic voltammetry, absorption and fluorescence measurements and were compared to B3 with only one neighbouring donor-acceptor pair. For the asymmetric B2 CV measurements show three oxidations as well as three reduction peaks whose peak separation is greatly influenced by the conducting salt due to ion-pairing and shielding effects. Consequently, peak separations cannot be interpreted in terms of electronic couplings in the generated mixed valence species. Transient absorption, fluorescence solvatochromism and absorption spectra show that charge transfer states from the amine to the boron centres are generated after optical excitation. The electronic donor-acceptor interaction is weak though as the charge transfer has to occur predominantly through space. The electronic coupling could not be quantified as the CT absorption band is superimposed by pi-pi* transitions localised at the amine and borane centres. However, this trend is in good agreement to the weak coupling measured for HAB-Model. Both transient absorption and fluorescence upconversion measurements indicate an ultrafast stabilisation of the charge transfer state in B1- B3 similar to the corresponding observations in HAB-S and Star. Moreover, the excitation energy of the localised excited charge transfer states can be redistributed between the aryl substituents of these multidimensional chromophores within fluorescence lifetime (ca. 60 ns). This was proved by steady state fluorescence anisotropy measurements, which further indicate a symmetry breaking in the superficially symmetric HAB. Anisotropic fluorescence upconversion measurements confirm this finding and reveal a time constant of tau = 2-3 ps for the energy transfer in B1 and B2. It has to be stressed that, although the geometric structures of B1 and HAB-S are both based on the same framework and furthermore the neighbouring CT states show in both cases similar Coulomb couplings and negligible “through bond” couplings, very fast energy transfer is observed in B1 whereas in HAB-S the energy is not redistributed within the excited state lifetime. To explain this, it has to be kept in mind that the energy transfer and the relaxation of the CT state are competing processes. The latter is influenced moreover by the solvent viscosity. Hence, it is assumed that this discrepancy in energy transfer behaviour is caused by monitoring the excited state in solvents of varying viscosity. Adding fluoride ions causes the boron centres to lose their acceptor ability due to complexation. Consequently, the charge transfer character in the donor-acceptor chromophores vanishes which could be observed in both the absorption and fluorescence spectra. However, the fluoride sensor ability of the boron centre is influenced strongly by the moisture content of the solvent possibly due to hydrogen bonding of water to the fluoride anions.
UV/Vis/NIR absorption measurements of S2a show a red-shift by 1800 cm-1 of the characteristic squarain band compared to the model compound S20. From exciton theory a Coulomb coupling of V = 410 cm-1 is calculated which cannot account for this strong spectral shift. Consequently, “through-bond” interactions have to contribute to the strong communication between the two squaraine chromophores in S2a. This is in accordance with the strong charge transfer coupling calculated for the tolan spacer in Star-Model.
In demokratischen Regierungssystemen sind die Minister als Agenten der exekutiven Staatsgewalt gegenüber dem Parlament für ihre Handlungen verantwortlich. Die ministerielle Fragestunde ist hierbei ein gewichtiges Kontollinstrument und Gegenstand der vorliegenden kontrastiven Metaphernanalyse unter spezieller Berücksichtigung von pragmatischen und kulturellen Gesichtspunkten. Neben einer Diskussion und Kontextualisierung kognitiver Metapherntheorien wird vor allem im Rahmen einer Korpusanalyse festgestellt, welche Quelldomänen in diesem Diskursgenre quantitativ am häufigsten und qualitativ am bedeutsamsten für das zum Zeitpunkt der globalen Wirtschafts- und Finanzkrise relevante Makrotopik der Wirtschaftsrezession auftreten; außerdem welche interkulturellen Variationen und Konventionaliäten in den konzeptuellen Metaphern bestehen.
Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von
transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind.
Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch
die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie
-AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden.
Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden.
Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem
Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der
Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die
Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen
Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt.
Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden.
Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können.
Diese Dissertation handelt von der Darstellung, Charakterisierung und Reaktivitätsuntersuchungen von neuartigen Platinalkylidenborylkomplexen und eines heteroleptischen Platiniminoborylkomplexes. Außerdem wurden Reaktivitätsuntersuchungen an einem Platinoxoborylkomplex durchgeführt und die erhaltenen Produkte wurden genau untersucht und charakterisiert.
Durch Untersuchungen zur Reaktivität von Boryl- und Boridverbindungen konnten deren Bindungssituationen aufgeklärt und neuartige Koordinationsmotive von Übergangsmetall-Bor-Verbindungen erhalten werden. Die erhaltenen Verbindungen wurden mittels NMR-Spektroskopie, IR-Spektroskopie, Elementaranalyse und Röntgendiffraktometrie untersucht und zusätzlich wurden DFT-Rechnungen angefertigt.
An verschieden substituierten Eisenborylkomplexen wurden Reaktivitätsuntersuchungen gegenüber Halogenidabstraktionsmitteln und Reduktionsmitteln durchgeführt und im Falle der Boridkomplexe wurden Verbindungen mit bis dato unbekanntem Strukturmotiv erhalten.
The aim of this thesis is to examine the competition patterns that exist between originators and generics by focusing on the articulations between regulation and incentives to innovate.
Once the characteristics of regulation in pharmaceutical markets is reviewed in the first chapter and an analysis of some current challenges related to cost-containment measures and innovation issues is performed, then in the second chapter, an empirical study is performed to investigate substitution patterns. Based on the EC´s merger decisions in the pharmaceutical sector from 1989 to 2011, this study stresses the key criteria to define the scope of the relevant product market based on substitution patterns and shows the trend towards a narrower market in time.
Chapters three and four aim to analyse in depth two widespread measures, the internal reference pricing system in off-patent markets, and risk-sharing schemes in patent-protected markets. By taking into account informational advantages of originators over generics, the third chapter shows the extent to which the implementation of a reference price for off-patent markets can contribute in promoting innovation.
Finally, in the fourth chapter, the modeling of risk-sharing schemes explains how such schemes can help in solving moral hazard and adverse selection issues by continuously giving pharmaceutical companies incentives to innovate and supplying medicinal products of a higher quality.
Division of labor represents a major advantage of social insect communities that accounts for their enormous ecological success. In colonies of the honeybee, Apis mellifera, division of labor comprises different tasks of fertile queens and drones (males) and, in general, sterile female workers. Division of labor also occurs among workers in form of an age-related polyethism. This helps them to deal with the great variety of tasks within the colony. After adult eclosion, workers spend around three weeks with various duties inside the hive such as tending the brood or cleaning and building cells. After this period workers switch to outdoor tasks and become foragers collecting nectar, pollen and water. With this behavioral transition, workers face tremendous changes in their sensory environment. In particular, visual sensory stimuli become important, but also the olfactory world changes. Foragers have to perform a completely new behavioral repertoire ranging from long distance navigation based on landmark orientation and polarized-skylight information to learning and memory tasks associated with finding profitable food sources. However, behavioral maturation is not a purely age-related internal program associated with a change, for example, in juvenile hormone titers. External factors such as primer pheromones like the brood pheromone or queen mandibular pheromone can modulate the timing of this transition. In this way colonies are able to flexibly adjust their work force distribution between indoor and outdoor tasks depending on the actual needs of the colony. Besides certain physiological changes, mainly affecting glandular tissue, the transition from indoor to outdoor tasks requires significant adaptations in sensory and higher-order integration centers of the brain.
The mushroom bodies integrate olfactory, visual, gustatory and mechanosensory information. Furthermore, they play important roles in learning and memory processes. It is therefore not surprising that the mushroom bodies, in particular their main input region, the calyx, undergo volumetric neuronal plasticity. Similar to behavioral maturation, plastic changes of the mushroom bodies are associated with age, but are also to be affected by modulating factors such as task and experience.
In my thesis, I analyzed in detail the neuronal processes underlying volumetric plasticity in the mushroom body. Immunohistochemical labeling of synaptic proteins combined with quantitative 3D confocal imaging revealed that the volume increase of the mushroom body calyx is largely caused by the growth of the Kenyon cell dendritic network. This outgrowth is accompanied by changes in the synaptic architecture of the mushroom body calyx, which is organized in a distinct pattern of synaptic complexes, so called microglomeruli. During the first week of natural adult maturation microglomeruli remain constant in total number. With subsequent behavioral transition from indoor duties to foraging, microglomeruli are pruned while the Kenyon cell dendritic network is still growing. As a result of these processes, the mushroom body calyx neuropil volume enlarges while the total number of microgloumeruli becomes reduced in foragers compared to indoor workers. In the visual subcompartments (calyx collar) this process is induced by visual sensory stimuli as the beginning of pruning correlates with the time window when workers start their first orientation flights. The high level of analysis of cellular and subcellular process underlying structural plasticity of the mushroom body calyx during natural maturation will serve as a framework for future investigations of behavioral plasticity in the honeybee.
The transition to foraging is not purely age-dependent, but gets modulated, for example, by the presence of foragers. Ethyl oleate, a primer pheromone that is present only in foragers, was shown to delay the onset of foraging in nurse bees. Using artificial application of additional ethyl oleate in triple cohort colonies, I tested whether it directly affects adult neuronal plasticity in the visual input region of the mushroom body calyx. As the pheromonal treatment failed to induce a clear behavioral phenotype (delayed onset of foraging) it was not possible to show a direct link between the exposure to additional ethyl oleate and neuronal plasticity in mushroom body calyx. However, the general results on synaptic maturation confirmed my data of natural maturation processes in the mushroom body calyx.
Given the result that dendritic plasticity is a major contributor to neuronal plasticity in the mushroom body calyx associated with division of labor, the question arose which proteins could be involved in mediating these effects. Calcium/calmodulin-dependent protein kinase II (CaMKII) especially in mammals, but also in insects (Drosophila, Cockroach), was shown to be involved in facilitating learning and memory processes like long-term synaptic potentiation. In addition to presynaptic effects, the protein was also revealed to directly interact with cytoskeleton elements in the postsynapse. It therefore is a likely candidate to mediate structural synaptic plasticity. As part of my thesis, the presence and distribution of CaMKII was analyzed, and the results showed that the protein is highly concentrated in a distinct subpopulation of the mushroom body intrinsic neurons, the noncompact Kenyon cells. The dendritic network of this population arborizes in two calyx subregions: one receiving mainly olfactory input – the lip – and the collar receiving visual input. This distribution pattern did not change with age or task. The high concentration of CaMKII in dendritic spines and its overlap with f-actin indicates that CaMKII could be a key player inducing structural neuronal plasticity associated with learning and memory formation and/or behavioral transitions related to division of labor. Interestingly CaMKII immunoreactivity was absent in the basal ring, another subregion of the mushroom body calyx formed almost exclusively by the inner compact Kenyon cells and known to receive combined visual and olfactory input. This indicates differences of this mushroom body subregion regarding the molecular mechanisms controlling plastic changes in corresponding Kenyon cells.
How is timing of behavioral and neuronal plasticity regulated? The primer pheromone ethyl oleate was found in high concentrations on foragers and was shown to influence behavioral maturation by delaying the onset of foraging when artificially applied in elevated concentrations. But how is ethyl oleate transferred and how does it shift the work force distribution between indoor and outdoor tasks? Previous work showed that ethyl oleate concentrations are highest in the honeycrop of foragers and suggested that it is transferred and communicated inside the colony via trophallaxis. The results of this thesis however clearly show, that ethyl oleate was not present inside the honey crop or the regurgitate, but rather in the surrounding tissue of the honey crop. As additionally the second highest concentration of ethyl oleate was measured on the surface of the cuticle of forgers, trophallaxis was ruled out as a mode of transmission. Neurophysiological measurements at the level of the antennae (electroantennogram recordings) and the first olfactory neuropil (calcium imaging of activity in the antennal lobe) revealed that the primer pheromone ethyl oleate is received and processed as an olfactory stimulus. Appetitive olfactory conditioning using the proboscis extension response as a behavioral paradigm showed that ethyl oleate can be associated with a sugar reward. This indicates that workers are able to perceive, learn and memorize the presence of this pheromone. As ethyl oleate had to be presented by a heated stimulation device at close range, it can be concluded that this primer pheromone acts via close range/contact chemoreception through the olfactory system. This is also supported by previous behavioral observations.
Taken together, the findings presented in this thesis revealed structural changes in the synaptic architecture of the mushroom body calyx associated with division of labor. For the primer pheromone ethyl oleate, which modulates the transition from nursing to foraging, the results clearly showed that it is received via the olfactory system and presumably acts via this pathway. However, manipulation experiments did not indicate a direct effect of ethyl oleate on synaptic plasticity. At the molecular level, CaMKII is a prime candidate to mediate structural synaptic plasticity in the mushroom body calyx. Future combined structural and functional experiments are needed to finally link the activity of primer pheromones like ethyl oleate to the molecular pathways mediating behavioral and synaptic plasticity associated with division of labor in Apis mellifera. The here identified underlying processes will serve as excellent models for a general understanding of fundamental mechanisms promoting behavioral plasticity.
Performance Assessment of Resource Management Strategies for Cellular and Wireless Mesh Networks
(2015)
The rapid growth in the field of communication networks has been truly amazing in the last decades. We are currently experiencing a continuation thereof with an increase in traffic and the emergence of new fields of application. In particular, the latter is interesting since due to advances in the networks and new devices, such as smartphones, tablet PCs, and all kinds of Internet-connected devices, new additional applications arise from different areas. What applies for all these services is that they come from very different directions and belong to different user groups. This results in a very heterogeneous application mix with different requirements and needs on the access networks.
The applications within these networks typically use the network technology as a matter of course, and expect that it works in all situations and for all sorts of purposes without any further intervention. Mobile TV, for example, assumes that the cellular networks support the streaming of video data. Likewise, mobile-connected electricity meters rely on the timely transmission of accounting data for electricity billing. From the perspective of the communication networks, this requires not only the technical realization for the individual case, but a broad consideration of all circumstances and all requirements of special devices and applications of the users.
Such a comprehensive consideration of all eventualities can only be achieved by a dynamic, customized, and intelligent management of the transmission resources. This management requires to exploit the theoretical capacity as much as possible while also taking system and network architecture as well as user and application demands into account. Hence, for a high level of customer satisfaction, all requirements of the customers and the applications need to be considered, which requires a multi-faceted resource management.
The prerequisite for supporting all devices and applications is consequently a holistic resource management at different levels. At the physical level, the technical possibilities provided by different access technologies, e.g., more transmission antennas, modulation and coding of data, possible cooperation between network elements, etc., need to be exploited on the one hand. On the other hand, interference and changing network conditions have to be counteracted at physical level. On the application and user level, the focus should be on the customer demands due to the currently increasing amount of different devices and diverse applications (medical, hobby, entertainment, business, civil protection, etc.).
The intention of this thesis is the development, investigation, and evaluation of a holistic resource management with respect to new application use cases and requirements for the networks. Therefore, different communication layers are investigated and corresponding approaches are developed using simulative methods as well as practical emulation in testbeds. The new approaches are designed with respect to different complexity and implementation levels in order to cover the design space of resource management in a systematic way. Since the approaches cannot be evaluated generally for all types of access networks, network-specific use cases and evaluations are finally carried out in addition to the conceptual design and the modeling of the scenario.
The first part is concerned with management of resources at physical layer. We study distributed resource allocation approaches under different settings. Due to the ambiguous performance objectives, a high spectrum reuse is conducted in current cellular networks. This results in possible interference between cells that transmit on the same frequencies. The focus is on the identification of approaches that are able to mitigate such interference.
Due to the heterogeneity of the applications in the networks, increasingly different application-specific requirements are experienced by the networks. Consequently, the focus is shifted in the second part from optimization of network parameters to consideration and integration of the application and user needs by adjusting network parameters. Therefore, application-aware resource management is introduced to enable efficient and customized access networks.
As indicated before, approaches cannot be evaluated generally for all types of access networks. Consequently, the third contribution is the definition and realization of the application-aware paradigm in different access networks. First, we address multi-hop wireless mesh networks. Finally, we focus with the fourth contribution on cellular networks. Application-aware resource management is applied here to the air interface between user device and the base station. Especially in cellular networks, the intensive cost-driven competition among the different operators facilitates the usage of such a resource management to provide cost-efficient and customized networks with respect to the running applications.
The propagation of the genetic information into proteins is mediated by messenger- RNA (mRNA) intermediates. In eukaryotes mRNAs are synthesized by RNA- Polymerase II and subjected to translation after various processing steps. Earlier it was suspected that the regulation of gene expression occurs primarily on the level of transcription. In the meantime it became evident that the contribution of post- transcriptional events is at least equally important. Apart from non-coding RNAs and metabolites, this process is in particular controlled by RNA-binding proteins, which assemble on mRNAs in various combinations to establish the so-called “mRNP- code”.
In this thesis a so far unknown component of the mRNP-code was identified and characterized. It constitutes a hetero-trimeric complex composed of the Tudor domain-containing protein 3 (TDRD3), the fragile X mental retardation protein (FMRP) and the Topoisomerase III beta (TOP3β) and was termed TTF (TOP3β-TDRD3-FMRP) -complex according to its composition.
The presented results also demonstrate that all components of the TTF-complex shuttle between the nucleus and the cytoplasm, but are predominantly located in the latter compartment under steady state conditions. Apart from that, an association of the TTF-complex with fully processed mRNAs, not yet engaged in productive translation, was detected. Hence, the TTF-complex is a component of „early“ mRNPs.
The defined recruitment of the TTF-complex to these mRNPs is not based on binding to distinct mRNA sequence-elements in cis, but rather on an interaction with the so-called exon junction complex (EJC), which is loaded onto the mRNA during the process of pre-mRNA splicing. In this context TDRD3 functions as an adapter, linking EJC, FMRP and TOP3β on the mRNP. Moreover, preliminary results suggest that epigenetic marks within gene promoter regions predetermine the transfer of the TTF-complex onto its target mRNAs.
Besides, the observation that TOP3β is able to catalytically convert RNA-substrates disclosed potential activities of the TTF-complex in mRNA metabolism. In combination with the already known functions of FMRP, this finding primarily suggests that the TTF-complex controls the translation of bound mRNAs.
In addition to its role in mRNA metabolism, the TTF-complex is interesting from a human genetics perspective as well. It was demonstrated in collaboration with researchers from Finland and the US that apart from FMRP, which was previously linked to neurocognitive diseases, also TOP3β is associated with neurodevelopmental disorders. Understanding the function of the TTF-complex in mRNA metabolism might hence provide important insight into the etiology of these diseases.
Ziel:
Abschätzung der Risiken des Rezidivs des differenzierten Schilddrüsenkarzinoms, der Karzinom-bedingten Mortalität und der Karzinom-bedingten Reduktion der Lebenserwartung in Abhängigkeit von der Anzahl der zum Erreichen eines krankheitsfreien Zustands benötigten I-131-Therapien (Radioiodtherapien) und der für die Krankheitsfreiheit benötigten kumulativen Aktivität.
Methoden:
Analyse anhand von in der Würzburger Schilddrüsenkarzinom-Datenbank erfassten Verlaufsdaten unter Berücksichtigung eigener zusätzlicher Erhebungen zum follow-up.von 896 Patienten, die nach einer oder mehreren Radioiodtherapien im Therapieverlauf Erkrankungsfreiheit erreichten (negative TSH-stimulierte Thyreoglobulin-Messung in Kombination mit einer negativen I-131-Ganzkörperszintigraphie).
Ergebnisse:
Die erfassbare Nachsorgedauer betrug in Median 9.0 Jahre (Spannbreite 0.1-31.8 Jahre). Rezidiv-Raten nach 5 und 10 Jahren und am Ende der Nachsorge betrugen 1,0±0,3%, 4,0±0,7% und 6,2±1,1%. Die Schilddrüsenkarzinom-bedingte Sterberate betrug jeweils 0,1±0,1%, 0,5±0,3% und 3,4±1,1%.
Mit einer zunehmenden Anzahl von benötigten Radioiodtherapien nahm die Rezidivrate zu (p=0.001). Die Schilddrüsenkarzinom-bedingte Sterblichkeitsrate ist ab 4 benötigten Radioiodtherapien erhöht. Bei Patienten, die nach einer Radioiodtherapie krankheitsfrei waren, finden sich zwischen Niedrig- und Hochrisikopatienten keine Unterschiede bezüglich Rezidiv- und Sterblichkeitsrate. Bei Patienten, die zwei Radioiodtherapien benötigten, waren Rezidiv- und Sterblichkeitsrate der Hochrisikopatienten erhöht.
Bezüglich der kumulativ benötigten Aktivität zeigten sich nur bei Patienten, die eine kumulative Aktivität von über 22,2 GBq benötigten, erhöhte Rezidiv- und Sterberaten.
Im vorliegenden Studienkollektiv mit einer inhärent guten Prognose zeigte sich eine uneingeschränkte Lebenserwartung unabhängig von der benötigen Anzahl der Radioiodtherapien oder der benötigten kumulativen Aktivität.
Fazit:
Falls mehr als eine Radioiodtherapie oder eine hohe kumulative I-131 Aktivität benötigt wird, um einen krankheitsfreien Zustand zu erreichen, muss mit einer Rezidiv- und Schilddrüsenkarzinom-bedingten Sterblichkeits-Rate gerechnet werden, vor allem bei Hochrisikopatienten.
In this thesis, I present a model system for carbohydrate interactions with single-crystalline Ru surfaces. Geometric and electronic properties of copper phthalocyanine (CuPc) on top of graphene on hexagonal Ru(0001), rectangular Ru(10-10) and vicinal Ru(1,1,-2,10) surfaces have been studied. First, the Fermi surfaces and band structures of the three Ru surfaces were investigated by high-resolution angle-resolved photoemission spectroscopy. The experimental data and theoretical calculations allow to derive detailed information about the momentum-resolved electronic structure. The results can be used as a reference to understand the chemical and catalytic properties of Ru surfaces. Second, graphene layers were prepared on the three different Ru surfaces. Using low-energy electron diffraction and scanning tunneling microscopy, it was found that graphene can be grown in well-ordered structures on all three surfaces, hexagonal Ru(0001), rectangular Ru(10-10) and vicinal Ru(1,1,-2,10), although they have different surface symmetries. Evidence for a strong interaction between graphene and Ru surfaces is a 1.3-1.7e V increase in the graphene pi-bands binding energy with respect to free-standing graphene sheets. This energy variation is due to the hybridization between the graphene pi bands and the Ru 4d electrons, while the lattice mismatch does not play an important role in the bonding between graphene and Ru surfaces. Finally, the geometric and electronic structures of CuPc on Ru(10-10), graphene/Ru(10-10), and graphene/Ru(0001) have been studied in detail. CuPc molecules can be grown well-ordered on Ru(10-10) but not on Ru(0001). The growth of CuPc on graphene/Ru(10-10) and Ru(0001) is dominated by the Moire pattern of graphene. CuPc molecules form well-ordered structures with rectangular unit cells on graphene/Ru(10-10) and Ru(0001). The distance of adjacent CuPc molecules is 1.5 and 1.3 nm on graphene/Ru(0001) and 1.54 and 1.37 nm on graphene/Ru(10-10). This indicates that the molecule-substrate interaction dominates over the intermolecular interaction for CuPc molecules on graphene/Ru(10-10) and graphene/Ru(0001).
Analysis of discretization schemes for Fokker-Planck equations and related optimality systems
(2015)
The Fokker-Planck (FP) equation is a fundamental model in thermodynamic kinetic theories and
statistical mechanics.
In general, the FP equation appears in a number of different fields in natural sciences, for instance in solid-state physics, quantum optics, chemical physics, theoretical biology, and circuit theory. These equations also provide a powerful mean to define
robust control strategies for random models. The FP equations are partial differential equations (PDE) describing the time evolution of the probability density function (PDF) of stochastic processes.
These equations are of different types depending on the underlying stochastic process.
In particular, they are parabolic PDEs for the PDF of Ito processes, and hyperbolic PDEs for piecewise deterministic processes (PDP).
A fundamental axiom of probability calculus requires that the integral of the PDF over all the allowable state space must be equal to one, for all time. Therefore, for the purpose of accurate numerical simulation, a discretized FP equation must guarantee conservativeness of the total probability. Furthermore, since the
solution of the FP equation represents a probability density, any numerical scheme that approximates the FP equation is required to guarantee the positivity of the solution. In addition, an approximation scheme must be accurate and stable.
For these purposes, for parabolic FP equations on bounded domains, we investigate the Chang-Cooper (CC) scheme for space discretization and first- and
second-order backward time differencing. We prove that the resulting
space-time discretization schemes are accurate, conditionally stable, conservative, and preserve positivity.
Further, we discuss a finite difference discretization for the FP system corresponding to a PDP process in a bounded domain.
Next, we discuss FP equations in unbounded domains.
In this case, finite-difference or finite-element methods cannot be applied. By employing a suitable set of basis functions, spectral methods allow to treat unbounded domains. Since FP solutions decay exponentially at infinity, we consider Hermite functions as basis functions, which are Hermite polynomials multiplied by a Gaussian.
To this end, the Hermite spectral discretization is applied
to two different FP equations; the parabolic PDE corresponding to Ito processes, and the system of hyperbolic PDEs corresponding to a PDP process. The resulting discretized schemes are analyzed. Stability and spectral accuracy of the Hermite spectral discretization of the FP problems is proved. Furthermore, we investigate the conservativity of the solutions of FP equations discretized with the Hermite spectral scheme.
In the last part of this thesis, we discuss optimal control problems governed by FP equations on the characterization of their solution by optimality systems. We then investigate the Hermite spectral discretization of FP optimality systems in unbounded domains.
Within the framework of Hermite discretization, we obtain sparse-band systems of ordinary differential equations. We analyze the accuracy of the discretization schemes by showing spectral convergence in approximating the state, the adjoint, and the control variables that appear in the FP optimality systems.
To validate our theoretical estimates, we present results of numerical experiments.
Infertilität stellt in unserer heutigen Gesellschaft ein zunehmendes Problem dar. Bei der Suche nach den der Infertilität zugrunde liegenden Ursachen gerät immer mehr die Epigenetik in den Fokus. Epigenetische Prozesse sind nicht nur in die Embryo-nalentwicklung und Wachstumsprozesse des Kindes involviert, sondern auch in korrekte Funktionsweisen von Gameten. Störungen können die Fertilität beeinträch-tigen. Eine besondere Rolle spielen geprägte Gene, die auf einem ihrer Allele, je nach parentaler Herkunft, ein Imprint in Form von DNA-Methylierung tragen. Fehl-regulationen solcher geprägter Gene können zu Imprinting-Erkrankungen führen.
Seit Einführung der In-vitro-Fertilisation (IVF) wurden verschiedene assistierte Re-produktionstechniken (ART) entwickelt, um infertilen Paaren zu helfen. Die Sicher-heit dieser Techniken ist nicht abschließend geklärt. Immer wieder wird von nach ART-Behandlung gehäuft auftretenden Imprinting-Erkrankungen berichtet. Diese Erkrankungen stehen jedoch eher in Zusammenhang mit der zugrunde liegenden Infertilität, als mit ART selbst. Dennoch ist es notwendig zu untersuchen inwieweit sich ART eventuell auf den Gesundheitszustand dieser Kinder auswirken könnte.
In der hier vorgelegten Arbeit wurde der Zusammenhang von Epigenetik, Infertilität und ART von verschiedenen Standpunkten aus beleuchtet.
In humanen Spermien wurde die DNA-Methylierung verschiedener geprägter Gene hinsichtlich Epimutationen untersucht. ICSI (intracytoplasmatic sperm injection) und IMSI (intracytoplasmic morphologically selected sperm injection) sind verschiedene Techniken zur Selektion von Spermien für eine ART-Behandlung. Hier wurde un-tersucht, ob IMSI epigenetisch bessere Spermien selektiert als die konventionelle ICSI-Methode. Außerdem ist bekannt, dass in Spermienköpfen fertiler und infertiler Männer Vakuolen vorkommen können, deren epigenetische Bedeutung jedoch un-bekannt ist. Ob diese Vakuolen in Zusammenhang mit Epimutationen stehen könn-ten, wurde ebenfalls überprüft. Dazu wurde bisulfitkonvertierte DNA weniger Sper-mien (11 je Probe) mithilfe der Limiting Dilution (LD)–Technik und Pyrosequenzie-rung analysiert. Insgesamt standen 880 Spermien für diese Untersuchung zur Ver-fügung. Es konnte kein Unterschied zwischen IMSI- und ICSI-selektierten Spermien gefunden werden. Vorhandene Vakuolen im Spermienkopf beeinträchtigten nicht die DNA-Methylierung der Gene hGTL2, hLIT1 und hPEG3.
Ein weiteres Projekt befasste sich mit der Frage, inwieweit die Technik der In-vitro-Maturation (IVM) DNA-Methylierung in humanen Oocyten beeinflussen könnte. Bisulfitkonvertierte DNA einzelner humaner Oocyten wurde mit LD und Pyrose-quenzierung analysiert. Verglichen wurden IVM und in vivo gereifte Oocyten. Hier-für standen 139 Oocyten zur Verfügung, wovon 90 mittels IVM und 49 in vivo gereift waren. Untersucht wurden vier geprägte Gene (hGTL2, hLIT1, hPEG3 und hSNRPN) und drei nicht geprägte Gene (hDNMT3Lo, hNANOG und hOCT4). Es konnten keine IVM-bedingten Epimutationen gefunden werden.
Im dritten Projekt wurde untersucht, ob sich die DNA-Methylierung normaler Sper-mien von Spermien aus Oligozoospermie-Asthenozoospermie-Teratozoospermie (OAT)–Syndrom-Patienten unterscheidet. Eine weitere Frage war, ob Epimutationen einen Einfluss auf den ART-Ausgang haben. Untersucht wurden 54 Spermienpro-ben von Paaren in ART-Behandlung. Zur Untersuchung der DNA-Methylierungsmuster der geprägten Gene hGTL2 und hPEG3 sowie der beiden nicht geprägten Pluripotenzgene hNANOG und hOCT4 wurde die Methode Deep Bisulfite Sequencing (DBS) verwendet. Dies ist eine Next Generation Sequencing (NGS)–Technik, angewandt an bisulfitkonvertierter DNA. Diese Technik ermöglicht es mehrere Proben sowie Gene gleichzeitig zu analysieren. Es zeigte sich, dass OAT-Spermien, die zu einer Lebendgeburt geführt hatten, sich epigenetisch nicht von normalen Spermien unterschieden. Besonders viele Epimutationen konnten hingegen in OAT-Spermien gefunden werden, die zu keiner Schwangerschaft ge-führt hatten. Zwischen Spermien die zu einer Lebendgeburt oder keiner Schwan-gerschaft geführt hatten, zeigten sich Unterschiede in der Häufigkeit von hGTL2-Epimutationen. Über die Häufigkeit von Epimutationen konnte eine prädiktive Aus-sage zum ART-Ausgang getroffen werden.
Zusammenfassend konnte in dieser Arbeit festgestellt werden, dass sich eine Häu-fung von Epimutationen darauf auswirkt, ob eine Schwangerschaft erreicht werden kann oder nicht. Diese Epimutationen liegen bereits im parentalen Genom vor. Sie werden nicht durch ART verursacht. Allerdings muss man Techniken finden, mit denen man Gameten mit möglichst wenig Epimutationen selektiert, um eine Über-tragung solcher auf das Kind zu verhindern.
Gemäß 2-Prozess-Modellen der Abhängigkeit resultiert die Reaktion auf suchtassoziierte Reize aus der Interaktion zweier in Verbindung stehender, aber unabhängig voneinander arbeitender Systeme: Aus dem Zusammenspiel eines dominierenden Implizitsystems und eines geschwächten Explizitsystems ergeben sich starke Annäherungstendenzen, die immer wieder zum Konsum der Droge führen. Den genannten Systemen können eigene aber überlappend arbeitende neuronale Schaltkreise zugeordnet werden. Als Anteil des Implizitsystems generieren Impulse des Striatums Annäherungstendenzen. Gegenspieler hierzu ist der Bereich der Amygdala, hier kann Vermeidungs- und Abwendungsverhalten gegenüber präsentierten Stimuli entstehen. Beiden übergeordnet befähigt der präfrontale Cortex zu einer bewussten Entscheidungsfindung und Verhaltenskontrolle (Triadic Modell). Indirekte Mess-methoden wie die Approach-Avoidance Task (AAT) ermöglichen über die Analyse des gezeigten Verhaltens die Erfassung der vorherrschenden Assoziationen zwischen emotionaler Stimuluswertigkeit und aufkommender Verhaltenstendenz des impulsiven Systems. Grundlage der AAT ist es dabei, dass prinzipiell als positiv bewertete Stimuli vorrangig mit Annäherungs-verhalten, Stimuli mit Negativbewertung dagegen eher mit Vermeidungs-verhalten verknüpft werden. Je nach Aufgabenstellung werden Reizvalenz und geforderte motorische Reaktion unterschiedlich kombiniert. So ergeben sich kompatible bzw. inkompatible Kombinationen zwischen dargebotenem Reiz, geforderter Reaktion (Annäherung vs. Vermeidung) und empfundener Assoziation (positiv vs. negativ). Bei Kompatibilität werden schnellere Reaktionen mit niedrigerer Fehlerrate gezeigt als bei inkompatibler Aufgaben-stellung. Dies lässt auf die vorliegenden Verhaltenstendenzen schließen. In der vorliegenden Arbeit entscheidet der Faktor „Gruppe“ (alkoholabhängige Pro-banden bzw. gesunde Kontrollpersonen) über Kompatibilität bzw. Inkompatibilität der Kombination aus Reiz (alkoholassoziierter bzw. nicht-alkoholassoziierter Stimulus) und Verhalten (Annäherung bzw. Vermeidung).
Ziel war es nun die postulierten Annäherungstendenzen gegenüber alkohol-assoziierten Reizen auf Verhaltensebene mittels AAT zu erfassen. Gleichzeitig wurde mittels Nahinfrarot-Spektroskopie (NIRS) die Aktivität der beteiligten kortikalen Strukturen des dorsolateralen Präfrontalcortex (DLPFC), des Orbito-frontalcortex (OFC) sowie des dorsalen fronto-medianen Cortex (DFMC) gemessen und zwischen alkoholabhängigen und gesunden Probanden ver-glichen. Bezüglich der gemessenen Reaktionszeiten ergaben sich wie erwartet bei dem untersuchten Patientenkollektiv Annäherungstendenzen gegenüber alkoholassoziierten Stimuli. Gegenüber nicht-alkoholassoziierten Produkt-bildern waren Vermeidungstendenzen erkennbar. Die Auswertungen der Kontrollgruppe ergaben genau umgekehrte Resultate. Identische Ergebnisse ließen sich für beide Gruppen bei Betrachtung der mittels NIRS gemessenen Hirnaktivität des OFC beschreiben. Diese Ergebnisse werden im Rahmen einer Abhängigkeit als Resultat einer vermehrt positiven Bewertung suchtassoziierter Stimuli mit einem übermäßigen Ansprechen des Belohnungszentrums diskutiert. Unabhängig der Gruppenzugehörigkeit konnten im Bereich des DLPFC durch eine stärkere kortikale Aktivierung bei Vermeidung im Vergleich zur Annäherung der alkoholassoziierten Produktbilder Annäherungspräferenzen gegenüber alkoholischen Produktbildern nachgewiesen werden. Die fehlenden Gruppenunterschiede lassen sich eventuell durch die gegebenen Instruktionen mit Betonung des Bildinhaltes und einem dadurch erzeugten Bewusstsein für die Hypothesen des Experiments erklären. Außerdem bietet eine durch Alkoholabhängigkeit generell verminderte Aktivität des DLPFC einen möglichen Erklärungsansatz. Korrelationsanalysen zwischen DLPFC und OFC unter-stützen die Vorstellung des DLPFC als oberstes Kontrollgremium über sämtlichen dem Belohnungszentrum zuzuordnenden Hirnstrukturen.
Ausblickend lässt sich die klinische Bedeutung der erhaltenen Resultate erörtern. Aktuelle Forschungsarbeiten verwenden die AAT im Rahmen eines Trainings zur Rückfallprävention. Durch viele Wiederholungen der inkompatiblen Reiz-Verhaltenskombination werden vorhandene Annäherungs-tendenzen abgeschwächt und Rückfälle vermieden. Offen bleibt die Erforschung der diesen Trainingserfolgen zugrundeliegenden Mechanismen sowie eine mögliche Eingrenzung der davon profitierenden Patientengruppen.
Context-specific Consistencies in Information Extraction: Rule-based and Probabilistic Approaches
(2015)
Large amounts of communication, documentation as well as knowledge and information are stored in textual documents. Most often, these texts like webpages, books, tweets or reports are only available in an unstructured representation since they are created and interpreted by humans. In order to take advantage of this huge amount of concealed information and to include it in analytic processes, it needs to be transformed into a structured representation. Information extraction considers exactly this task. It tries to identify well-defined entities and relations in unstructured data and especially in textual documents.
Interesting entities are often consistently structured within a certain context, especially in semi-structured texts. However, their actual composition varies and is possibly inconsistent among different contexts. Information extraction models stay behind their potential and return inferior results if they do not consider these consistencies during processing. This work presents a selection of practical and novel approaches for exploiting these context-specific consistencies in information extraction tasks. The approaches direct their attention not only to one technique, but are based on handcrafted rules as well as probabilistic models.
A new rule-based system called UIMA Ruta has been developed in order to provide optimal conditions for rule engineers. This system consists of a compact rule language with a high expressiveness and strong development support. Both elements facilitate rapid development of information extraction applications and improve the general engineering experience, which reduces the necessary efforts and costs when specifying rules.
The advantages and applicability of UIMA Ruta for exploiting context-specific consistencies are illustrated in three case studies. They utilize different engineering approaches for including the consistencies in the information extraction task. Either the recall is increased by finding additional entities with similar composition, or the precision is improved by filtering inconsistent entities. Furthermore, another case study highlights how transformation-based approaches are able to correct preliminary entities using the knowledge about the occurring consistencies.
The approaches of this work based on machine learning rely on Conditional Random Fields, popular probabilistic graphical models for sequence labeling. They take advantage of a consistency model, which is automatically induced during processing the document. The approach based on stacked graphical models utilizes the learnt descriptions as feature functions that have a static meaning for the model, but change their actual function for each document. The other two models extend the graph structure with additional factors dependent on the learnt model of consistency. They include feature functions for consistent and inconsistent entities as well as for additional positions that fulfill the consistencies.
The presented approaches are evaluated in three real-world domains: segmentation of scientific references, template extraction in curricula vitae, and identification and categorization of sections in clinical discharge letters. They are able to achieve remarkable results and provide an error reduction of up to 30% compared to usually applied techniques.