Refine
Has Fulltext
- yes (129) (remove)
Is part of the Bibliography
- yes (129)
Year of publication
- 2017 (129) (remove)
Document Type
- Doctoral Thesis (129) (remove)
Language
- German (129) (remove)
Keywords
- Oxidativer Stress (4)
- MRT (3)
- Tourismus (3)
- ADHS (2)
- Adipositas (2)
- Anorexia nervosa (2)
- Antikörper (2)
- Aufmerksamkeitsdefizit-Syndrom (2)
- Deutschland (2)
- Diagnostik (2)
Institute
- Klinik und Poliklinik für Anästhesiologie (ab 2004) (8)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (7)
- Institut für Pharmakologie und Toxikologie (6)
- Neurologische Klinik und Poliklinik (6)
- Klinik und Poliklinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie (5)
- Medizinische Klinik und Poliklinik I (5)
- Graduate School of Life Sciences (4)
- Institut für Anorganische Chemie (4)
- Institut für Geographie und Geologie (4)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (4)
Sonstige beteiligte Institutionen
- Deutsches Zentrum für Herzinsuffizienz (1)
- Didaktik der Chemie (1)
- Endokrinologie (1)
- Fraunhofer Institut für Silicatforschung ISC (1)
- Fraunhofer-Institut für Silicatforschung (1)
- Fraunhofer-Institut für Silicatforschung, Würzburg (1)
- Hochschule für angewandte Wissenschaften München, Fakultät für Tourismus (1)
- Lehrstuhl für Tissue Engineering und Regenerative Medizin der Universität Würzburg (1)
- Siemens Corporate Technology, Erlangen (1)
- Stanford University (1)
ResearcherID
- D-3057-2014 (1)
- N-8985-2015 (1)
Diese Arbeit befasst sich mit verschiedenen Aspekten der Dynamik von Kernen, Elektronen und gekoppelten Kern-Elektron-Systemen, wobei je nach System unterschiedliche Herangehensweisen gewählt wurden.
Zentrale Punkte sind bei allen drei Kapiteln einerseits die Lokalisierung von Teilchen und Energie und andererseits eine hohe Sensitivität in Bezug auf die Wahl der Anfangsbedingungen.
Im ersten Teil wurden von der Carrier-Envelope-Phase (CEP) abhängende, laser-induzierte Lokalisierungen betrachtet. Das zentrale Element ist dabei das entwickelte Doppelpulsschema, mit welchem eine CEP-Abhängigkeit in beobachtbaren Größen erzeugt wird. Als Beispielsysteme wurden die Fragmentation im D₂⁺-Modellsystem und eine Isomerisierung im Doppelminimumpotential (DMP) untersucht. Als Observable wird die Asymmetrie betrachtet
Im DMP kann die Asymmetrie mit dem Entantiomeren/Isomerenüberschuss gleich gesetzt werden kann und im D₂⁺-Modellsystem mit der Lokalisierung des Elektrons auf einem der beiden dissoziierenden Kerne.
Eine Phasenabhängigkeit der Asymmetrien besteht nur für die CEP des zweiten Pulses φ₂, für welchen keine Begrenzungen für die Anzahl an Laserzyklen auftreten.
Im DMP wurde die CEP-Abhängigkeit der Asymmetrien auch bei unterschiedlichen Startkonfigurationen untersucht. Für alle untersuchten Startkonfigurationen konnte ein Laserparametersatz gefunden werden, der für zumindest eine der beiden Asymmetrien eine CEP-Abhängigkeit liefert. Aufgrund der aufgehobenen energetischen Entartung der Paare gerader und ungerader Symmetrie ist die resultierende Lokalisierung zeitabhängig. Zur Messung der vorhergesagten Dynamiken ist z.B. die Aufnahme eines Photoelektronen-Spektrums denkbar.
In nächsten Kapitel wurden unterschiedliche Dynamiken innerhalb eines 4d Kern-Elektron-Modells in der Nähe einer konischen Durchschneidung (CI) zweier Potentiale betrachtet. Hierbei ist hervorzuheben, dass eine solche gleichzeitige Untersuchung von Kern- und Elektron-Dynamik in Systemen mit CIs in der Literatur, nach Wissen des Autors, bisher nicht veröffentlicht ist. Das 4d-Potential wurde mit Hilfe des sogenannten Potfit-Algorithmus gefittet. Dieser Fit wurde anschließend verwendet, um die Dynamik des gekoppelten Systems mit Hilfe der ”Multi-Configuration Time-Dependent Hartree”(MCTDH)-Methode zu berechnen. Aus der Analyse der gekoppelten Kern-Elektron-Wellenfunktion ergaben sich zwei grundlegend unterschiedliche Klassen von Dynamiken:
• Diabatisch: Kern- und Elektrondynamik sind nahezu entkoppelt. Der Kern bewegt sich und das Elektron bleibt statisch.
• Adiabatisch: Kern- und Elektrondynamik sind stark gekoppelt. Die Kerndynamik findet auf Kreisbahnen statt. Mit der Rotation der Kerndichte um den Winkel φ geht eine Rotation der Elektron-Dichte einher.
Die diabatische Bewegung entspricht der Dynamik durch die konische Durchschneidung und die adiabatische Bewegung der Dynamik auf der unteren Potentialfläche. Welche der beiden Dynamiken stattfindet, wird durch die Wahl der Anfangsbedingung bestimmt. Der wesentliche Unterschied zwischen den beiden Startzuständen ist dabei die Lage des Knotens im elektronischen Anteil der Wellenfunktion. In den diabatischen Bewegungen bleibt z.B. der pₓ -artige Charakter der elektronischen Wellenfunktion konstant, wohingegen sich bei der adiabatischen Dynamik der Charakter mit der Kernbewegung ändert. Die Zeitersparnis durch die Verwendung des MCTDH-Ansatzes im Vergleich zur Split-Operator-Methode liegt etwa bei einem Faktor 5.
Das letzte Kapitel widmet sich der mikroskopischen Beschreibung von Exziton-Exziton-
Annihilierung (EEA). Dabei werden numerische Lösungen der aus einem mikro-
skopischen Modell hergeleiteten Ratengleichungen mit Messungen ( transienter Absorption) verglichen. Es wurden zwei Systeme untersucht: ein Squarain-basiertes Heteropolymer (SQA-SQB)ₙ und ein [2-methoxy-5-(2-ethylhexyloxy)-1,4-phenylenvinylen]-Polymer, auch bekannt als MEH-PPV. In beiden Fällen gelang die systematische Parameterbestimmung mit Hilfe einer Aufteilung in lokalisierte Subsysteme. Diese Subsysteme werden einzeln gewichtet und anschließend aufsummiert, wobei die Gewichte optimiert werden können. Aus den so erhaltenen Parametern ergibt sich für beide Systeme ein ähnliches Bild:
• Durch ultraschnelle Lokalisierung der Anregung im fs-Bereich auf kleinere Aggregateinheiten bilden sich voneinander getrennte Subsysteme.
• Die in den Subsystemen lokalisierten Exzitonen können sich nur innerhalb dieser Bereiche frei bewegen. Es ist ausreichend, direkt benachbarte Mono-, Bi-, Tri- und Tetra-Exzitonen in bis zu zwei Dimensionen zu berücksichtigen.
• Auf einer fs-Zeitskala annihilieren direkt benachbarte Exzitonen.
• Im MEH-PPV ergibt sich der Signalzerfall im fs-Bereich als Mittelwert aus einer schnellen (zwischen Ketten) und einer langsamen (innerhalb von Ketten) Annihilierung.
• Im ps- bis ns-Bereich wird sowohl durch Diffusion vermittelte Annihilierung, also auch der Zerfall der ersten angeregten Zustände bedeutsam.
Antikörper, die Oberflächenantigene erkennen, sind sowohl in der Diagnostik als auch in der Therapie verschiedener Erkrankungen von enormer Bedeutung. Damit Antikörper in diesen Bereichen eingesetzt werden können, ist es sehr wichtig, dass die Interaktion eines Antikörpers oder auch eines Antikörperkonjugats mit seinem Antigen oder Fc-Rezeptoren ausreichend charakterisiert wird. Hierfür werden meist zellfreie Verfahren angewandt, wie die isotherme Titrationskalorimetrie oder die Oberflächenplasmonenresonanzspektroskopie. Diese unterliegen verschiedenen Limitationen, beispielsweise der Verfügbarkeit von rekombinantem Antigen. Vor allem aber werden zelluläre Einflüsse, die die Bindungseigenschaften der Antikörper beeinflussen, nicht berücksichtigt. Aber auch die derzeit angewandten Verfahren für zelluläre Bindungsstudien können problematisch sein, da sie meist auf Antikörpern basieren, die biochemisch markiert worden sind, was zu funktionellen Beeinträchtigungen führen kann. Außerdem zeigen solche Antikörper häufig keine einheitliche Stöchiometrie der jeweiligen Reporterstoffe und die Reproduzierbarkeit des Markierungsverfahrens ist in den meisten Fällen nicht gewährleistet. Positionsspezifische Markierungen sind jedoch vergleichsweise sehr aufwendig.
Um die genannten Probleme zu umgehen, wurden in der vorliegenden Arbeit am Beispiel des Fn14-spezifischen Antikörpers 18D1 Antikörper-Fusionsproteine hergestellt und charakterisiert, die an verschiedenen Positionen genetisch mit der Gaussia princeps Luziferase (GpL) fusioniert worden sind. Dabei zeigte sich, dass die Positionierung der Luziferase am C-Terminus der leichten Kette des Antikörpers (GpL(CT-LC)) die Bindungseigenschaften der GpL-18D1-IgG1-Fusionsproteine an Fn14 und an die verschiedenen Fcγ-Rezeptoren (FcγR) nicht oder nur in geringem Umfang beeinflusst. Auch die agonistische Aktivität der GpL-18D1-IgG1-Fusionsproteine, welche abhängig ist von der Oligomerisierung über Protein G oder der FcγR-Bindung, wurde durch die GpL-Markierung nicht wesentlich beeinflusst. Diese Ergebnisse ließen sich am Bespiel von 18D1 ebenfalls auf die dimeren Antikörper-Isotypen IgG2, mIgG1 und mIgG2A übertragen. GpL-Fusionsproteine der Antikörper E09-IgG1 (CD95-spezifisch), G28.5-IgG1 (CD40-spezifisch) und BHA10-IgG1 (LTβR-spezifisch) zeigten gleichfalls keine gravierenden Veränderungen der Bindungseigenschaften oder den funktionellen Eigenschaften, was für eine breite Anwendbarkeit von GpL-Antikörper-Fusionsproteinen spricht.
Zusammenfassend betrachtet zeigen die hier präsentierten Ergebnisse, dass die genetische Fusion der Gaussia princeps Luziferase an das C-terminale Ende der leichten Antikörperkette eine sehr gute Möglichkeit darstellt, Antigen-Antikörper-Interaktionen zu charakterisieren ohne dabei mit den Eigenschaften des Antikörpers zu interferieren. Dabei besticht dieser Ansatz im Vergleich zu anderen gängigen Verfahren durch seine Reproduzierbarkeit, eine einfache Handhabung, geringe Kosten und eine extrem hohe Sensitivität. Außerdem könnte dieses Antikörper-Fusionsproteinformat zukünftig auch in vielen Bereichen als Tracer eingesetzt werden mit dem Vorteil, dass keinerlei Radioaktivität benötigt werden würde.
"China im Wandel" ist das Schlagwort, wenn es um das "Reich der Mitte" geht. Primär war damit das rapide wirtschaftliche Wachstum über die letzten Jahrzehnte gemeint, aber auch zunehmend die Veränderungen in politischen und sozialen Bereichen. Der ökonomische Transformationsprozess hat auch einen anhaltenden institutionellen Wandel in Wirtschaft und Gesellschaft hervorgerufen. Für diese wirtschaftliche Transformation werden in China vor allem mehr qualifizierte Fachkräfte benötigt, nach denen die ausländischen wie inländischen Unternehmen auf dem chinesischen Arbeitsmarkt oft vergeblich suchen. Rekrutierung und Mitarbeiterbindung sowie die steigenden Lohnkosten stellen seit Jahren die größten Herausforderungen auf dem chinesischen Arbeitsmarkt dar. Das Mismatch-Problem ist augenscheinlich. Um die Gründe für diese Verzerrungen zu eruieren, setzt die vorliegende Studie dort an, wo Bildungsmarkt und Arbeitsmarkt aufeinandertreffen, und zwar dem Human Resource Management (HRM) von Unternehmen in China. Ziel dieser Studie ist es, einen Beitrag zur Diskussion über das Voranschreiten meritokratischer Verteilungsprozesse im Übergang von einer Plan- zur Marktwirtschaft in China zu leisten. Die Neue Institutionenökonomik (NIÖ) liefert mit der Signal- und Screeningtheorie (SST) Erklärungsansätze für solche personalökonomischen Probleme zwischen AG und AN. Mit Hilfe dieses auf China angewandten Ansatzes konnten die relevanten "Signale" beider Parteien im Rekrutierungsprozess sowie die Problemfelder Chinas Hotellerie identifiziert und analysiert werden. Somit richtet sich diese Studie nicht nur an Sinologen, sondern ebenso an Wirtschaftswissenschaftler und Praktiker mit Chinabezug.
Elektromagnetische Felder (EMF) sind in der Umwelt des Menschen allgegenwärtig. Unter Verwendung unterschiedlicher Frequenzen bilden sie die Grundlage zahlreicher Technologien und begegnen uns im Alltag in einer Vielzahl von Anwendungen. Eine sehr wichtige Anwendung von EMF ist die mobile Kommunikation. Die hierfür verwendeten Frequenzen liegen im hochfrequenten Bereich und variieren mit dem Mobilfunkstandard. Weit verbreitet ist die GSM- und UMTS-Modulation der zweiten (2G) und dritten Generation (3G). Zum neuesten Mobilfunkstandard zählt LTE (4G).
Aus statistischen Daten geht hervor, dass derzeit weltweit mehr als sieben Milliarden Mobilfunk-Endgeräte existieren. Die weitverbreitete und stetig ansteigende Verwendung dieser Technologien verdeutlicht, dass viele Menschen, darunter auch zunehmend Kinder und Jugendliche, regelmäßig einer Exposition gegenüber EMF ausgesetzt sind. Die wichtigste Expositionsquelle stellt dabei das Mobiltelefon dar, da sich in diesem Szenario die Quelle sehr nah am menschlichen Körper befindet. In der Vergangenheit wurden zahlreiche in-vitro- und in-vivo-Untersuchungen sowie epidemiologische Studien durchgeführt, um potentielle, nicht-thermische Effekte von Mobilfunkstrahlung auf biologische Systeme beurteilen zu können. Ein vollständiger Konsens konnte auf der Basis der erhaltenen Ergebnisse jedoch nicht erzielt werden, sodass weiterhin Bedenken zum schädlichen Potential dieser nichtionisierenden Strahlung bestehen. Insbesondere wurden Fragestellungen zu Langzeiteffekten sowie zu Effekten, die speziell bei Kindern eine besondere Rolle spielen, bisher nicht ausreichend adressiert. Kinder können empfindlicher auf Umwelteinflüsse reagieren und sind im Vergleich zu Erwachsenen teilweise höher gegenüber EMF exponiert. Dies gilt vor allem für Kopfregionen, in denen sich das aktive, für die Hämatopoese verantwortliche Knochenmark befindet.
Vor diesem Hintergrund war es das Ziel der vorliegenden Arbeit, den Einfluss von Mobilfunkstrahlung auf das humane blutbildende System zu untersuchen. Im Fokus standen dabei humane hämatopoetische Stammzellen, die mit Frequenzen der Mobilfunkstandards GSM (900 MHz), UMTS (1.950 MHz) und LTE (2.535 MHz) jeweils über einen kurzen (4 h) und einen langen (20 h) Zeitraum und mit unterschiedlichen Intensitäten (0 W/kg, 0,5 W/kg, 1 W/kg, 2 W/kg und 4 W/kg) exponiert wurden. Vergleichende Experimente erfolgten mit Zellen der Promyelozyten-Zelllinie HL-60. Mögliche Effekte wurden mit den Endpunkten Apoptose, oxidativer Stress, Zellzyklus, DNA-Schaden und –Reparatur sowie Differenzierung und Epigenetik in Form von Histonacetylierung bewertet. In keinem der genannten Endpunkte konnten klare Effekte durch Mobilfunkstrahlung ausgemacht werden, weder für die hämatopoetischen Stammzellen, noch für die Zelllinie HL-60. Die einzige Veränderung wurde bei der Quantifizierung von DNA-Schäden beobachtet. Hier zeigte sich nach der Kurzzeitexposition der Stammzellen mit der Modulation GSM eine kleine, aber statistisch signifikante Abnahme der DNA-Schäden verglichen mit der Scheinexposition. Diese Beobachtung ließ sich in weiteren Replikaten jedoch nicht reproduzieren und wurde daher als nicht biologisch relevant eingestuft.
Insgesamt konnte mit dieser Arbeit gezeigt werden, dass durch Mobilfunkstrahlung mit Frequenzen der verbreiteten Modulationen GSM, UMTS und LTE sowie SAR-Werten, die unterhalb und oberhalb des empfohlenen Sicherheitsstandards liegen und typischerweise bei Handytelefonaten auftreten, keine Effekte in Zellen des blutbildenden Systems unter den gegebenen Versuchsbedingungen induziert wurden. Ein besonderer Fokus lag hierbei auf der Reproduzierbarkeit der Ergebnisse. Weiterhin wurden zum ersten Mal humane hämatopoetische Stammzellen für derartige Untersuchungen eingesetzt. Dies hat insofern eine besondere Bedeutung, als hämatopoetische Stammzellen aufgrund ihrer multipotenten Eigenschaften eine breitere Analyse mit Hinblick auf die Kanzerogenese und auf das Immunsystem ermöglichen.
Um über die Mobilfunk-Untersuchungen hinaus die hämatopoetischen Stammzellen besser charakterisieren zu können, sowie die Sensitivität von Blutzellen mit unterschiedlichem Differenzierungsstatus zu analysieren, wurden sie anderen Zellen des blutbildenden Systems (undifferenzierte und differenzierte HL-60-Zellen und TK6-Zellen) gegenübergestellt. Eine Behandlung der verschiedenen Zelltypen mit mutagenen Substanzen zeigte, dass sich die hämatopoetischen Stammzellen in den meisten der untersuchten Endpunkte von den Zelllinien unterschieden. Deutliche Abweichungen zeigten sich beim oxidativen Stress, der DNA-Reparatur und der Histonacetylierung; kein Unterschied konnte dagegen bei den DNA-Schäden beobachtet werden. Eine erste Interpretation der erhaltenen Ergebnisse ist auf der Grundlage der unterschiedlichen Eigenschaften von Zellen mit abweichendem Differenzierungsstatus möglich. Um jedoch eine eindeutige Aussage treffen zu können, müssten noch weitere Untersuchungen durchgeführt werden.
Schutzgebiete und insbesondere Nationalparke haben nach den Richtlinien der IUCN ein Doppelmandat bzw. eine doppelte Funktion: Sie sollen zum einen Räume für Natur- und Artenschutz und zum anderen für Erholung, Umweltbildung und Tourismus bieten und durch letztgenanntes zur Stärkung der Regionalökonomie beitragen. Um diesen Spagat zu meistern, sollten sich Schutzgebiete bzw. deren Verwaltungen und kooperierende Destinationsmarketingorganisationen darüber im Klaren sein, welche Besuchersegmente bzw. Tourismusprodukte im Schutzgebiet anzutreffen sind, bzw. angeboten werden und welchen Einfluss diese auf die Erfüllung des Doppelmandates haben. Die deduktiv entworfene Product-based Typology for Nature-based Tourism von ARNEGGER et al. (2010) bietet hierfür einen zweidimensionalen Analyserahmen, der die Angebots- und Nachfrageperspektive auf den Tourismus und dessen Produkte vereint und bisher noch nicht empirisch angewendet wurde, was das vorrangige Ziel dieser Studie ist.
Hierfür wurde von Theorien und empirischen Studien aus dem Kontext von Natur- und Ökotourismus eine Operationalisierung der Typologie abgeleitet, die am Beispiel des Nationalparks Berchtesgaden eingesetzt wurde. Dabei wurden zwei Ansätze verfolgt, eine angebotsseitige und eine nachfrageseitige Abgrenzung von Tourismusprodukten. Zur empirischen Erfassung von Tourismusprodukten wurde eine umfassende Besucherbefragung in der Sommersaison 2014 durchgeführt, bei der Informationen von rund 1.400 Besuchern des Nationalparks gesammelt werden konnten.
Aus Sicht der Nachfrager wurden sechs Produkt-Cluster identifiziert, die sich bezüglich Reiseaktivitäten und Motiven unterscheiden. Das mit der höchsten Naturaffinität ist das Produkt-Cluster der „Naturbildungsurlauber“ bzw. der „Ökotouristen“. Auf der anderen Seite des Spektrums stehen die „Passiven Erholungsurlauber“ mit einer geringen Nationalparkaffinität. Des Weiteren wurden spezifische Tourismusprodukte aus der Angebotsperspektive, wie Exkursionen der Nationalparkverwaltung oder mehrtägige geführte Wanderungen von spezialisierten Nischenreiseveranstaltern, identifiziert.
Nach der empirischen Abgrenzung der Produkte wurden diese dahingehend überprüft, ob sie sich bezüglich ökonomischer und ökologischer Indikatoren unterscheiden, um zu eruieren, inwieweit die Segmente aus Sicht einer nachhaltigen Regionalentwicklung bzw. aus Sicht des Doppelmandats zu beurteilen sind. Auch hier schneiden etwa die Naturbildungsurlauber relativ gut ab, da sie Muster von structured ecotourism aufweisen und sich durch eine hohe Naturaffinität, positive Einstellungen zu nachhaltigem Tourismus und relativ hohe Reiseausgaben auszeichnen. Bei drei Clustern zeigt sich ein gewisser trade-off: Während die Bergsteiger aus ökologischer jedoch nicht aus ökonomischer Perspektive interessant sind, ist dies bei den allgemeinen Vergnügungs- und Naturerlebnisurlaubern und den passiven Erholungsurlaubern genau umgekehrt.
Basierend auf den Ergebnissen werden mögliche Adaptionen der Typologie diskutiert und darauf aufbauend ein Analyserahmen für eine „Typologie für Nachhaltige Park-Tourismus Produkte“ erarbeitet. Zudem werden theoretische und erste praktische Implikationen für das Management von Schutzgebiets-Destinationen diskutiert, um unter Berücksichtigung der trade-offs das Produktportfolio weiterzuentwickeln, das eine Destination auf den Pfad des sogenannten enlightened mass tourism bringen kann.
Um die Natur der Transportdynamik von Ladungsträgern auch auf mikroskopischen Längenskalen nicht-invasiv untersuchen zu können, wurde im ersten Schwerpunkt dieser Arbeit das PL- (Photolumineszenz-) Quenching (engl.: to quench: löschen; hier: strahlungslose Rekombination von Exzitonen) in einer organischen Dünnschicht durch die injizierten und akkumulierten Löcher in einer Transistorgeometrie analysiert. Diese Zusammenführung zweier Methoden - der elektrischen Charakterisierung von Dünnschichttransistoren und der Photolumineszenzspektroskopie - erfasst die Änderung des strahlenden Zerfalls von Exzitonen infolge der Wechselwirkung mit Ladungsträgern. Dadurch werden räumlich aufgelöste Informationen über die Ladungsverteilung und deren Spannungsabhängigkeit im Transistorkanal zugänglich. Durch den Vergleich mit den makroskopischen elektrischen Kenngrößen wie der Schwell- oder der Turn-On-Spannung kann die Funktionsweise der Transistoren damit detaillierter beschrieben werden, als es die Kenngrößen alleine ermöglichen. Außerdem wird die Quantifizierung dieser mikroskopischen Interaktionen möglich, welche beispielsweise als Verlustkanal in organischen Photovoltaikzellen und organicshen Leuchtdioden auftreten können. Die Abgrenzung zu anderen dissipativen Prozessen, wie beispielsweise der Exziton-Exziton Annihilation, Ladungsträgerrekombination, Triplett-Übergänge oder Rekombination an Störstellen oder metallischen Grenzflächen, erlaubt die detaillierte Analyse der Wechselwirkung von optisch angeregten Zuständen mit Elektronen und Löchern.
Im zweiten Schwerpunkt dieser Arbeit werden die Transporteigenschaften des Naphthalindiimids Cl2-NDI betrachtet, bei dem der molekulare Überlapp sowie die Reorganisationsenergie in derselben Größenordnung von etwa 0,1 eV liegen. Um experimentell auf den mikroskopischen Transport zu schließen, werden nach der Optimierung des Kristallwachstums Einkristalltransistoren hergestellt, mit Hilfe derer die Beweglichkeit entlang verschiedener kristallographischer Richtungen als Funktion der Temperatur gemessen werden kann. Die einkristalline Natur der Proben und die spezielle Transistorgeometrie ermöglichen die Analyse der räumlichen Anisotropie des Stromflusses. Der gemessene Beweglichkeitstensor wird daraufhin mit simulierten Tensoren auf der Basis von Levich-Jortner Raten verglichen, um auf den zentralen Ladungstransfermechanismus zu schließen.
Die chronische Niereninsuffizienz (CKD) ist ein weltweites Gesundheitsproblem. Insbesondere in den Industrienationen stellt es aufgrund des demographischen Wandels eine große gesundheitliche und finanzielle Herausforderung dar, da besonders ältere Menschen an einer eingeschränkten Nierenfunktion leiden. Hypertonie und Diabetes mellitus sind wichtige Risikofaktoren sowohl für die Entstehung der CKD, als auch für die koronare Herzerkrankung (KHK). Die Wahrnehmung der CKD in der Bevölkerung ist niedrig, wodurch eine frühzeitige Diagnose erschwert wird.
Die EUROASPIRE IV Studie hat es ermöglicht, die Prävalenz der CKD in einer Studienpopulation von KHK-Patienten im Raum Würzburg zu beschreiben. Nach den KDIGO-Leitlinien wurden die Patienten mit einer eGFRCKD-EPI<60ml/min als CKD-Patienten eingestuft. Zusätzlich wurde der Albumin/Kreatinin-Quotient (ACR) bestimmt. Zusammenhänge zwischen der Nierenfunktion und möglichen Determinanten wurden untersucht. Mit Hilfe eines Fragebogens wurde die Patienten-Awareness beschrieben. Retrospektiv erfolgte die Recherche, ob die Diagnose der CKD bei Aufnahme und/oder Entlassung des Indexaufenthalts im Arztbrief vermerkt wurde, dies wurde als Awareness der CKD seitens des behandelnden Arztes im Krankenhaus gewertet.
25% der 536-Teilnehmer wiesen am Tag der Untersuchung eine CKD auf. Das mediane Alter betrug 69 Jahre und die mediane eGFR lag bei 74 ml/min. Der ACR war mit 8,3 mg/g in der CKD-Gruppe deutlich erhöht (p<0,01). Das mediane Alter (p<0,01) und auch der prozentuale Anteil an Diabetikern (<0,01) waren in der CKD-Gruppe signifikant höher. 42,7% der Patienten mit CKD wussten von ihrer Nierenfunktionseinschränkung Bescheid. Bei 34 der 79 Patienten, die zum Zeitpunkt der Entlassung eine eGFR <60ml/min aufwiesen, wurde eine CKD im Arztbrief erwähnt.
Die vorliegende Studie zeigt eine hohe Prävalenz von CKD und klassischen kardiovaskulären Risikofaktoren wie beispielsweise Diabetes Mellitus. Trotz dieses hohen CKD-Anteils war sich nur ein geringer Teil der Patienten ihrer Nierenfunktionseinschränkung bewusst und wurde nur in geringem Maße von Ärzten im Entlassungsbrief erwähnt. Insgesamt war sowohl eine vermehrte Wahrnehmung der CKD seitens der Patienten als auch eine häufigere Erwähnung von CKD im Arztbrief mit zunehmendem Schweregrad der CKD assoziiert.
Die Arthrose des Kniegelenkes stellt heutzutage die häufigste Gelenkerkrankung des Menschen dar. Nachdem die konservativen Therapiemöglichkeiten ausgeschöpft sind, wird dem Patienten meist die Implantation einer Knietotalendoprothese empfohlen. Aufgrund von Schmerzen, einer Infektion, oder einer Lockerung der Prothese kann jedoch ein Wechsel des Gelenkersatzes notwendig werden. Das Femoropatellargelenk stellt bei solchen Revisionsoperationen das häufigste und bedeutendste Problem dar.
Diese Studie vergleicht 5 operative Verfahren der Patella-rückflächenbearbeitung bei Revisionsoperationen. Hierzu wurden 118 Patienten anhand von 6 etablierten Scores sowie klinisch und radiologisch nach durchschnittlich ca. 2 Jahren nachuntersucht.
Die Gruppe der Patienten, welche vor der Revisionsoperation eine ersetzte Patellarückfläche aufwiesen und bei welchen dieser Ersatz entnommen und somit ein knöcherner Rest hinterlassen wurde, zeigte in fast allen Scores deutliche, wenn auch nicht signifikant schlechtere Ergebnisse. Diese gliedern sich gut in die Arbeiten anderer Autoren zu diesem Thema ein.
Weiterhin zeigte sich, dass der Kniescore nach Turba et al. für die Evaluation des Femoropatellargelenkes bei Knieprothesenrevisionen ungeeignet ist.
Bei der Patellarückflächenbearbeitung während Revisionsoperationen sollte beim Hinweis auf eine Beschädigung der Patellakomponente diese gewechselt werden, ansonsten kann der bestehende Ersatz belassen werden.
Das Entfernen eines bestehenden Ersatzes mit Hinterlassen eines knöchernen Restes sollte vermieden werden.
Bei weiteren Studien zu diesem Thema wäre es wünschenswert, zusätzlich zur postoperativen Untersuchung eine präoperative Untersuchung durchzuführen.
Die Ergebnisse dieser Arbeit wurden auf dem SICOT-Weltkongress der Orthopäden 2013 vorgestellt.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.