Refine
Is part of the Bibliography
- yes (293) (remove)
Year of publication
- 2015 (293) (remove)
Document Type
- Doctoral Thesis (196)
- Complete part of issue (50)
- Journal article (12)
- Book article / Book chapter (12)
- Review (7)
- Book (4)
- Conference Proceeding (3)
- Report (3)
- Jahresbericht (2)
- Working Paper (2)
Language
- German (293) (remove)
Keywords
- Universität (47)
- University (46)
- Wuerzburg (46)
- Wurzburg (46)
- Würzburg (46)
- Kernspintomografie (8)
- Rezension (7)
- Kohlenstoff-Nanoröhre (6)
- Exziton (4)
- Lunge (4)
Institute
- Universität - Fakultätsübergreifend (46)
- Neuphilologisches Institut - Moderne Fremdsprachen (20)
- Physikalisches Institut (17)
- Graduate School of Life Sciences (13)
- Medizinische Klinik und Poliklinik II (12)
- Institut für Anorganische Chemie (11)
- Theodor-Boveri-Institut für Biowissenschaften (11)
- Institut für deutsche Philologie (10)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (10)
- Medizinische Klinik und Poliklinik I (10)
Sonstige beteiligte Institutionen
- Bayerische Museumsakademie (1)
- Bayerisches Zentrum für Angewandte Energieforschung e.V. (1)
- Bezirk Unterfranken (1)
- Fraunhofer-Institut für Silicatforschung ISC (1)
- Hochschule Aalen (1)
- Institut für Biopsychologie, Universität Dresden (1)
- Institut für diagnostische und interventionelle Radiologie, Klinikum Ingolstadt (1)
- Ministeriums für Schule und Weiterbildung des Landes Nordrhein-Westfalen (1)
- Museum am Dom (1)
- Neurologische Klinik, Klinikum Ingolstadt (1)
Weltweit zählt die Tuberkulose zu den tödlichsten und am weitesten verbreiteten Infektionskrankheiten. Missstände in der ohnehin komplexen Therapie einerseits und fehlende Entwicklung neuartiger adäquater Wirkstoffe andererseits, führten zur Entstehung von multi- und sogar total-resistenten Keimen. Der Haupterreger ist das Mycobacterium tuberculosis. Charakteristisch für Mykobakterien ist eine dicke und undurchlässige wachsartige Zellwand mit einem großen Anteil an bestimmten Fettsäuren. Die mykobakterielle Biosynthese dieser Fettsäuren unterscheidet sich stark von eukaryotischen Zellen. Die selektive Beeinflussung dieses Systems führt zu nicht überlebensfähigen Mykobakterien und stellt somit ein idealer Angriffspunkt für Arzneistoffe dar.
Die vorliegende Arbeit befasst sich mit der Entwicklung neuartiger direkter Hemmstoffe von InhA, einem für den Zellwandaufbau des Mycobacterium tuberculosis essenziellem Enzym.
Es wurden zwei photometrische gekoppelt-enzymatische Assay-Systeme im 96-Well-Format entwickelt, die sich das Absorptions- bzw. Fluoreszenzverhalten des Coenzyms NADH zu Nutze machen.
Das hierzu benötigte Enzym InhA wurde überexprimiert und aufgereinigt. Mehrere Synthesemethoden für das im Testverfahren verwendete Substrat 2-trans-Octenoyl-CoA (2toCoA) wurden etabliert.
Die etablierten Assay-Systeme wurden mit Hilfe von Positivkontrollen validiert. Grundlegende Experimente zur Errichtung einer substratunabhängigen orthogonalen Methode mittels MST wurden getätigt.
Basierend auf den Ergebnissen eines in Vorarbeiten durchgeführten virtuellen Screenings wurden erste potenzielle Inhibitoren kommerziell erworben und getestet. Nachfolgend wurde mit der Synthese von Derivaten begonnen, welche auf iterativem Wege optimiert wurden (Testung – Docking – Synthese neuer Derivate). Hierdurch wurde eine umfassende Substanzbibliothek bestehend aus insgesamt 254 Verbindungen aufgebaut. Diese setzte sich aus unterschiedlich substituierten Thiazolidin-2,4-dionen- und Thiazolin-2-on-Derivaten, Derivaten der ähnlich strukturierten Fünfring-Heterozyklen Rhodanine, Thiohydantoine und Hydantoine und weiteren Strukturklassen bestehend aus Biphenylether-, Pyrrolidoncarboxamid-, Pyridon- und Sulfonamid-Derivaten zusammen. Die Verbindungen wurden entweder selbst synthetisiert, kommerziell erworben oder von Kooperationspartnern bezogen. Neben der Etablierung zuverlässiger und effizienter Syntheserouten stand hierbei ebenso die strukturelle Aufklärung der stereochemischen Verhältnisse der Produkte im Mittelpunkt.
Die Verbindungen der aufgebauten Substanzbibliothek wurden mit dem etablierten InhA-Testsystem auf ihre inhibitorischen Eigenschaften gegenüber InhA untersucht. Soweit möglich wurden Struktur-Aktivitätsbeziehungen abgeleitet. Insbesondere einige disubstituierte Thiazolidindione zeigten eine schwache Hemmung von bis zu 25 %. Die zur Aufklärung des Inhibitionsmechanismus durchgeführten Experimente deuten auf eine unkompetitive Hemmung hin. Bei den direkten Testungen an Mykobakterien konnten die inhibitorischen Eigenschaften hingegen nicht bestätigt werden.
Weiterhin wurden Testungen an Cystein- und Serin-Proteasen von Erregern anderer Infektionskrankheiten durchgeführt. Das Thiazolinon SV102 wurde hierbei als nicht-kompetitiver Hemmstoff von Cathepsin B mit einem Ki-Wert von 1.3 µM identifiziert. Die Synthese und Testung weiterer Thiazolin-2-on-Derivate sowie Cokristallisationsversuche mit Cathepsin B sind somit in Betracht zu ziehen. Die getesteten Thiazolidindion-Derivate der Substanzbibliothek zeigten hierbei mittelstarke bis gute Hemmeigenschaften, die ebenfalls an den Erregern beobachtbar waren. Relativiert werden diese vielversprechenden Ergebnisse allerdings durch eine ebenfalls zu beobachtende Zytotoxizität. Weiterhin konnte eine antibakterielle Wirkung der untersuchten Verbindungen in zellulären Assay-Systemen nicht gezeigt werden.
Abschließend wurde die Eignung der Thiazolidindione und verwandter Fünfringheterozyklen als Leitstruktur für potenzielle InhA-Inhibitoren, aber auch die Eignung dieser Verbindungsklasse als potenzielle Leitstruktur per se diskutiert.
Zur Charakterisierung der Wechselwirkungen zwischen organischen Dispergiermitteln und nanoskaligen Oberflächen stellen Komplexe aus Kohlenstoffnanoröhren und (Bio-)Polymeren aufgrund der großen Oberfläche der Nanoröhren und der kommerziellen Verfügbarkeit fluoreszenzmarkierter DNA-Oligomere unterschiedlicher Länge sowie intrinsisch fluoreszierender Polymere ein vielversprechendes Modellsystem dar. Im Rahmen der vorliegenden Dissertation wurden verschiedene Methoden evaluiert, um die Stabilität derartiger Komplexe zu untersuchen und dadurch Rückschlüsse auf das Adsorptionsverhalten der (Bio-)Polymere zu ziehen. Dabei konnte gezeigt werden, dass das publizierte helikale Adsorptionsmodell der DNA auf Kohlenstoffnanoröhren die Resultate der durchgeführten Experimente nur unzureichend beschreiben kann und stattdessen andere Adsorptionskonformationen in Erwägung gezogen werden müssen.
Die Dissertation „Ontologiebasiertes Cloud Computing“ im Fachbereich Wirtschaftsinformatik behandelt das Thema Cloud Computing und veranschaulicht die Möglichkeiten der theoretischen und praktischen Nutzung einer Ontologie für das Cloud Computing.
Neben den Private und Public Clouds sowie Hybrid-Lösungen wird vor allem eine ausgefeilte Virtualisierungstechnologie die Zukunft im IT-Bereich mitgestalten. Die Vielfalt und Anzahl der angebotenen Services nimmt besonders auf dem Sektor der Public Clouds weiterhin stark zu, während im Hybrid-Bereich ansprechende Lösungen noch ausstehen. Das Nutzen eines Cloud-Services ist in der Regel einfach und wird mit den fallenden Preisen zunehmend interessanter. Eine Reihe von Punkten, die im Vorfeld genau betrachtet und festgelegt werden müssen, wie Aspekte der IT-Sicherheit, des Datenschutzes und der Kosten, ermöglichen eine wirtschaftliche und rechtssichere Inanspruchnahme eines Cloud-Services. Vor der Nutzung eines Services müssen zudem der Wert, die Nutzungshäufigkeit und die Geheimhaltungsstufe der eigenen Daten bekannt sein, um sicher bestimmen zu können, ob alle Informationen oder nur ein Teil zum Auslagern geeignet sind. Dazu bedarf es einer klaren Festlegung der vertraglichen Rahmenbedingungen und einer Regelung bezüglich des Schadensersatzes bei einem Ausfall. Ein aktives Change Management sollte schon vor der Einführung eines Services Akzeptanz für die sich im IT-Umfeld ändernden Aufgabengebiete schaffen.
Vergleichbare Alternativen zu finden, dies war die Zielvorgabe der durchgeführten, breiten Untersuchung von 15 Serviceanbietern, verbunden mit dem Aufbau einer Ontologie. Auf einem sehr dynamischen Cloud Computing Markt können diese Untersuchungen natürlich nur eine Momentaufnahme abbilden, denn neue Provider etablieren sich, schon länger bestehende verändern und verbessern ihre Angebote. Damit diese Momentaufnahme nicht in einem statischen Endzustand verbleibt, wurde eine Ontologie aufgebaut, die die konsistente Einpflege veränderter Sachverhalte zulässt. Die Idealvorstellung ist es, dass beim Bekanntwerden einer neuen Information diese auch immer in die Ontologie einfließt. Die Anbieteruntersuchung zeigt, dass Cloud-Services heute schon ein hohes Potential haben. Um sich einen Gesamtüberblick über die unterschiedlichen Services und ihre Angebote zu verschaffen, ist eine Ontologie besonders geeignet.
Die aufgebaute Cloud-Ontologie beinhaltet eine Service-Auswahl, die auf die Literatur- und Anbieteruntersuchung aufbaut. Ähnlich einer Suchmaschine hilft sie, sich über bestehende Angebote auf dem Markt zu informieren. Und sie vereinfacht die Selektion, definiert klar bekannte technische Details, erleichtert die Suche z. B. nach benötigten Zusatzdienstleistungen über standardisierte Schnittstellen, versucht Transparenz und Nachvollziehbarkeit bei den Abrechnungsmodellen herzustellen, um eine Vergleichbarkeit überhaupt erst zu ermöglichen. Der größte Vorteil liegt in der Zeitersparnis: Die Recherche nach passenden Cloud-Services wird durch formalisierte und somit vergleichbare Kriterien verkürzt. Bei mehreren passenden Anbietern lässt sich über weitere Abfragen oder Kostenvergleiche der jeweils für den Nutzer beste Anbieter gezielt finden. Ebenso können Services mit signifikanten Ausschlusskriterien frühzeitig aus der Auswahl entfernt werden. Durch das Verbot bestimmter Zuweisungen oder durch die Forderung von Mindestbedingungen innerhalb der Ontologie wird die Einpflege falscher Sachverhalte verhindert und sie erweist sich damit wesentlich unempfindlicher als viele Programme. Die Aufgabenstellung bei der Modellerstellung lag darin, zu einer allgemeinen Aussagekraft der modellierten Abhängigkeiten zu kommen. Außerdem erfüllt die Cloud-Ontologie die vier typischen Anforderungen an eine Ontologie: Sie ist ausschließlich durch die standardisierte Sprache OWL beschrieben, kann durch einen Inferenzalgorithmus (z. B. Pellet) ausgewertet werden, unterscheidet eindeutig zwischen 80 Klassen und 342 Individuals und bildet zahlreiche Informationen über 2657 Verknüpfungen ab. Die Ontologie kann mit geringem Aufwand auch in ein Programm mit einer ansprechenden Oberfläche überführt werden, wie der programmierte Prototyp beweist.
In der Praxis müssen für Unternehmen verstärkt Hilfsmittel angeboten werden oder in den Vordergrund rücken, wie Cloud-Ontologien, die die Auswahl von Services erleichtern, Vergleiche erst ermöglichen, die Suche verkürzen und zum Schluss zu Ergebnissen führen, die den Vorstellungen des künftigen Nutzers entsprechen.
Alle Retroviren prozessieren ihre Pol- und Strukturproteine mit Hilfe der viralen Protease. In dieser Arbeit wurden zentrale Mechanismen der Regulation der foamyviralen Protease untersucht und charakterisiert. Dazu wurde eine chromatographische Virusreinigungsmethode entwickelt und die relative Pol- und Env-Enkapsidierung bestimmt. Foamyviren enthalten weniger Pol als andere Retroviren aber deutlich mehr Env als humane Immunodefizienzviren. Die Pol-Inkorporation könnte durch die limitierte Prozessierung mit nur einer einzigen Schnittstelle in Gag und Pol kompensiert werden. Deshalb wurde untersucht, ob die foamyvirale Protease ein beschränktes Schnittstellenrepertoire aufweist. In Zellkulturen sind die Schnitt-stellenpositionen P2’ und P2 auf die Aminosäurereste Valin und Valin/Asparagin beschränkt. Demnach hat die foamyvirale Protease ein eingeschränkteres Schnittstellenrepertoire als die Protease des humanen Immunodefizienzvirus. Weiterhin wurde hier gezeigt, dass die vollständige reverse Transkription die Prozessierung von Gag voraussetzt und Proteaseaktivität-defiziente oder Gag-Schnittstellen-defiziente Viren keine vollständige cDNA bilden können. Demnach kompensieren Foamyviren die niedrige Proteasekonzentration, indem sie sicherstellen, dass die reverse Transkription erst nach der Gag-Maturation vollendet werden kann.
Weiterhin wird bei humanen Immunodefizienzviren durch die Gag-Maturation die essenzielle Mobilität der wenigen Env-Trimere auf der Hüllmembran getriggert. Die erstmals in dieser Arbeit bei Foamyviren quantifizierte Env-Menge ergab, dass Foamyviren 28 mal mehr Env- pro Gag-Molekül als humane Immunodefizienzviren besitzen. Wahrscheinlich dient dieser hohe Env-Gehalt der Kompensation der eingeschränkten Env-Mobilität, die durch die limitierte Gag-Prozessierung an nur einer carboxyterminalen Schnittstelle verursacht wird.
Da für die Aktivierung der foamyviralen Protease virale Ribonukleinsäure benötigt wird, wurde untersucht, welche Pol-Domänen für die Aktivierung der Protease benötigt werden. Im Gegensatz zur Integrase, deren Deletion in reduzierter Proteaseaktivität resultierte, war die funktionelle RNaseH-Domäne essenziell für die Gag-Prozessierung. Die Substitution der foamyviralen RNaseH durch RNaseH-Domänen von anderen Retroviren resultierte in genomunabhängiger Proteaseaktivität in Zellen und genomabhängiger Proteaseaktivität in den rekombinanten Viren. Demnach scheint die dimerstabilisierende Funktion der RNaseH durch direkte Protein-Protein-Interaktion oder durch unspezifische RNA-Bindung verursacht zu werden.
Im Rahmen dieser Arbeit wurden sehr einfache, flüssigchromatographische Methoden zur Qualitätsanalytik gebräuchlicher Antimalaria-Medikamente (Amodiaquin, Mefloquin, Proguanil sowie die Kombination Artemether/Lumefantrin) entwickelt, die nur wenige, günstig erhältliche Chemikalien (Phosphatpuffer, Methanol) sowie gewöhnliche, kommerzielle RP-18-Säulen benötigen. Sie sind insbesondere zur Anwendung in Laboratorien in Entwicklungsländern geeignet und erfordern keine komplexen HPLC-Instrumente wie beispielsweise Gradientenpumpen oder Säulenthermostate. Der Verzicht auf Ionenpaarreagenzien ermöglicht es, dass eine stationäre Phase für mehr als nur einen einzigen Einsatzzweck verwendet werden kann und dass langwierige Äquilibrier- bzw. Spülschritte nicht notwendig sind. Alle Methoden arbeiten im isokratischen Elutionsmodus und durch die Verwendung kurzer Säulen (125 mm) konnten die jeweiligen Analysenzeiten zusätzlich verringert werden. Hierdurch ist zudem eine Reduzierung des Fließmittelverbrauches möglich.
Während der Methodenentwicklung wurden charakteristische, aus dem Herstellungsweg des jeweiligen Arzneistoffes stammende potentielle Verunreinigungen berücksichtigt. Ihre Bestimmung erlaubt eine Aussage über die Herkunft eines Wirkstoffes bzw. eines Arzneimittels, da das Verunreinigungsmuster einer Substanz oftmals die Zuordnung zu einem bestimmten Herstellungs- bzw. Reinigungsprozess ermöglicht.
Alle Methoden wurden hinsichtlich der Linearität innerhalb des Arbeitsbereiches sowie der Wiederholpräzision charakterisiert. Es wurde eine gute Reproduzierbarkeit gefunden. Die Nachweis- und Bestimmungsgrenzen der untersuchten Verunreinigungen lagen bei einem Level von je 0.1 %. Durch gezielte Variation wurde der Einfluss wechselnder Trenntemperaturen sowie schwankender pH-Werte der jeweiligen mobilen Phase und die hieraus resultierenden Effekte untersucht. Hierbei zeigte sich, dass die Methoden sehr robust gegenüber diesen Einflussgrößen sind und somit für die Anwendung mit einfach ausgestatteten HPLC-Systemen sowie besonders für den Einsatz in tropische Gebieten mit wechselnden klimatischen Bedingungen gut geeignet sind.
Flüssigchromatographische Methoden spielen heute in der pharmazeutischen Analytik vor allem zur Bestimmung der Reinheit eines Arzneistoffes eine herausragende Rolle und sind in nahezu jeder Monographie der wichtigsten Arzneibücher (z. B. im Ph. Eur.) zu finden. Einfach durch-führbare Untersuchungsmethoden, wie beispielsweise die im GPHF-Minilab® angewandte Dünnschichtchromatographie, erfordern im Vergleich zur HPLC weniger komplexe und teure Instrumente und können selbst in entlegenen Gebieten ohne Laboratorium durchführt werden. Sie verfügen allerdings über eine nur sehr geringe Genauigkeit und Reproduzierbarkeit, da sowohl die praktische Durchführung als auch die anschließende Auswertung rein manuell bzw. visuell erfolgt und somit in hohem Maße einer Beeinflussung durch den jeweiligen Analytiker unterworfen ist. Die entwickelten HPLC-Methoden wurden mit dünnschichtchromatographischen Verfahren verglichen, hierbei besonders unter dem Aspekt der visuellen und der instrumentellen Auswertung der Chromatogramme zur Bestimmung des Gehaltes einer unbekannten Probe. Hierbei konnte aufgezeigt werden, dass die Dünnschichtchromatographie der Flüssigchromatographie eindeutig unterlegen ist, insbesondere wenn die Auswertung nicht mittels eines entsprechenden Scanners sondern rein visuell erfolgt: Nur in den wenigsten Fällen ist es möglich, eine annähernd präzise Aussage über den Gehalt zu treffen und zudem ist die Bestimmung der Verwandten Substanzen nur sehr bedingt möglich. Durch den Einsatz von Auftragegeräten bzw. Plattenscannern kann die Genauigkeit zwar signifikant erhöht werden, allerdings sind solche Instrumente im Verhältnis wesentlich teurer als einfache, modulare HPLC-Systeme und zählen heute in den wenigsten Laboratorien zum Standardinventar.
Vereinfachte chromatographische Methoden können ein wichtiges Hilfsmittel für Kontrolllaboratorien in Entwicklungsländern sein, wenn komplexe, etablierte Protokolle nur eingeschränkt angewendet werden können. Durch die Kombination aus dünnschichtchromatographischer Basisanalytik und einer flächendeckenden Untersuchung mittels HPLC lässt sich die Arzneimittelqualität sehr gut überprüfen, die regulatorischen Organe eines Landes entsprechend zu entlasten und die Versorgung der Bevölkerung mit qualitativ einwandfreien Medikamenten zu gewährleisten.
Ein weiterer Teil der Arbeit befasst sich mit der Stabilitätsanalytik individuell hergestellter, Noradrenalin-haltiger Injektionslösungen. Solche Rezepturen werden oftmals in Krankenhausapotheken im Rahmen der Defektur auf Vorrat durch Verdünnen der entsprechenden kommerzieller Fertigarzneimittel mit isotonischer Kochsalzlösung zubereitet, um z. B. für Notfallsituationen am Wochenende die Rezepturen vorrätig zu haben. Durch die Untersuchungen wurde geprüft, inwieweit der übliche Verdünnungsgrad von 0.1 % einen Einfluss auf die Stabilität des Noradrenalins hat und welche Lagerungsbedingungen für die Zubereitungen empfohlen werden können. Nach der Lagerung unter verschiedenen Bedingungen (gekühlt, bei Raumtemperatur sowie jeweils mit bzw. ohne Lichtschutz) konnte gezeigt werden, dass die Gehalte an Noradrenalin bei keiner der untersuchten Lagerungsbedingungen unter einen Wert von 99.0 % fielen. Individuell hergestellte Noradrenalin-Injektionslösungen können somit bis zu sieben Tage im Voraus hergestellt und für die Anwendung am Patienten bereit gehalten werden. Die Lösungen sollten dennoch gekühlt und unter Lichtschutz aufbewahrt werden, um den Abbau des Arzneistoffes und eine mikrobielle Kontamination zu minimieren.
In dieser Dissertation werden die Ergebnisse zur Synthese und Polymerisation gespannter Manganoarenophane vorgestellt. Weiterhin wird die Reaktivität von Bis(benzol)titan und die Synthese von ansa-Verbindungen dieses Komplexes, sowie Untersuchungen zu deren Eigenschaften beschrieben. Zum Vergeleich wird auch der Komplex Bis(mesityl)titan untersucht. Die Polymerisation von zinnverbrückten, gespannten Vanadium-Sandwichkomplexen und die Untersuchungen der paramagnetischen Eigenschaften ist ebenso in dieser Dissertationsschrift beschrieben. Zusätzlich wird die Synthese heteroleptischer Sandwichkomplexe des Scandiums und Yttriums dargestellt, sowie deren Ringsubstitution. Die Vorarbeiten zur Synthese heteroleptischer Sandwichkomplexe der Lanthanoide bildet ebenso einen Bestandteil dieser Schrift, wie die Synthese von ansa-Komplexen des Thorocens und Uranocens via flytrap-Methode.
In demokratischen Regierungssystemen sind die Minister als Agenten der exekutiven Staatsgewalt gegenüber dem Parlament für ihre Handlungen verantwortlich. Die ministerielle Fragestunde ist hierbei ein gewichtiges Kontollinstrument und Gegenstand der vorliegenden kontrastiven Metaphernanalyse unter spezieller Berücksichtigung von pragmatischen und kulturellen Gesichtspunkten. Neben einer Diskussion und Kontextualisierung kognitiver Metapherntheorien wird vor allem im Rahmen einer Korpusanalyse festgestellt, welche Quelldomänen in diesem Diskursgenre quantitativ am häufigsten und qualitativ am bedeutsamsten für das zum Zeitpunkt der globalen Wirtschafts- und Finanzkrise relevante Makrotopik der Wirtschaftsrezession auftreten; außerdem welche interkulturellen Variationen und Konventionaliäten in den konzeptuellen Metaphern bestehen.
Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von
transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind.
Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch
die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie
-AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden.
Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden.
Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem
Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der
Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die
Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen
Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt.
Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden.
Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können.
Diese Dissertation handelt von der Darstellung, Charakterisierung und Reaktivitätsuntersuchungen von neuartigen Platinalkylidenborylkomplexen und eines heteroleptischen Platiniminoborylkomplexes. Außerdem wurden Reaktivitätsuntersuchungen an einem Platinoxoborylkomplex durchgeführt und die erhaltenen Produkte wurden genau untersucht und charakterisiert.