Filtern
Volltext vorhanden
- ja (1554)
Erscheinungsjahr
- 2021 (1554) (entfernen)
Dokumenttyp
- Artikel / Aufsatz in einer Zeitschrift (916)
- Dissertation (527)
- Komplette Ausgabe / Heft einer Zeitschrift (45)
- Aufsatz in einem Sammelband / Buchkapitel (14)
- Buch (13)
- Konferenzveröffentlichung (10)
- Arbeitspapier / Working Paper (9)
- Master-, Diplom-, Magister-, Staatsexamensarbeit (5)
- Sonstiges (4)
- Preprint (Vorabdruck) (4)
Sprache
- Englisch (1121)
- Deutsch (420)
- Spanisch (12)
- Mehrsprachig (1)
Schlagworte
- Wuerzburg (46)
- Wurzburg (45)
- Würzburg (45)
- University (44)
- Universität (44)
- COVID-19 (19)
- inflammation (17)
- virtual reality (14)
- boron (13)
- inorganic chemistry (11)
Institut
- Theodor-Boveri-Institut für Biowissenschaften (173)
- Graduate School of Life Sciences (124)
- Institut für Anorganische Chemie (73)
- Medizinische Klinik und Poliklinik I (67)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (59)
- Medizinische Klinik und Poliklinik II (59)
- Institut für Psychologie (55)
- Institut für Informatik (51)
- Neurologische Klinik und Poliklinik (51)
- Institut für Organische Chemie (48)
Schriftenreihe
Sonstige beteiligte Institutionen
- Cologne Game Lab (3)
- DFG Forschungsgruppe 2757 / Lokale Selbstregelungen im Kontext schwacher Staatlichkeit in Antike und Moderne (LoSAM) (2)
- Klinikum Fulda (2)
- Open University of the Netherlands (2)
- Ökologische Station Fabrikschleichach (2)
- Airbus Defence and Space GmbH (1)
- Akademie der Wissenschaften und der Literatur, Mainz (1)
- Apotheke, Universitätsklinikum Würzburg (1)
- Biomedical Center Munich, Department of Physiological Chemistry, Ludwig-Maximilians-Universität München (1)
- Birmingham City University (1)
The research presented in this thesis illustrates that self-assembly of organic molecules guided by intermolecular forces is a versatile bottom-up approach towards functional materials. Through the specific design of the monomers, supramolecular architectures with distinct spatial arrangement of the individual building blocks can be realized. Particularly intriguing materials can be achieved when applying the supramolecular approach to molecules forming liquid-crystalline phases as these arrange in ordered, yet mobile structures. Therefore, they exhibit anisotropic properties on a macroscopic level. It is pivotal to precisely control the interchromophoric arrangement as functions originate in the complex structures that are formed upon self-assembly. Consequently, the aim of this thesis was the synthesis and characterization of liquid-crystalline phases with defined supramolecular arrangements as well as the investigation of the structure-property relationship. For this purpose, perylene bisimide and diketopyrrolopyrrole chromophores were used as they constitute ideal building blocks towards functional supramolecular materials due to their thermal stability, lightfastness, as well as excellent optical and electronic features desirable for the application in, e.g., organic electronics.
Das Neovaskularisationsglaukom (NVG) ist eine gravierende Erkrankung, die zur Erblindung und zum Verlust des Auges führen kann. Es gibt aktuell keine einheitlichen Behandlungsstrategien oder Leitlinien zur Behandlung des NVG. Das Ziel unserer konsekutiven, interventionellen Studie war es Effektivität und Sicherheit eines neuen kombinierten Operationsverfahrens, bestehend aus 23-Gauge-Pars-plana-Vitrektomie, panretinaler, nahezu konfluenter Endolaserkoagulation, transskleraler Zyklophotokoagulation (810-nm-Diodenlaser, 2W, 2s, 20 Herde), intravitrealer Bevacizumab-Eingabe und Lufttamponade retrospektiv zu analysieren. Bei allen phaken Augen wurde intraoperativ eine künstliche Intraokularlinse implantiert. Ausgewertet wurden bestkorrigierte Sehschärfe (BCVA, logMAR), Augeninnendruck (IOD, mmHg), Glaukom-Medikations-Score, visuelle analoge Schmerzskala (VAPS, 0-10) präoperativ und nach 1, 3, 6, und 12 Monaten sowie Komplikationen, erneute Eingriffe und Erfolg. Blinde Augen wurden ausgeschlossen. 83 Augen von 83 Patienten (53 Männer, 30 Frauen; 78 Jahre, SD ± 11,6 Jahre) wurden eingeschlossen. 53 Augen erreichten ein Jahr Nachbeobachtungszeit. Zu den häufigsten Ätiologien des NVG zählten Zentralvenenverschluss (n=41), proliferative diabetische Retinopathie (n=25), Zentralarterienverschluss (n=10) und okuläres Ischämiesyndrom (n=6). Die bestkorrigierte Sehschärfe zeigte keine signifikante Änderung zwischen präoperativ (Mittelwert 2,0; SD ± 0,7 logMAR) und einem Jahr Nachbeobachtung (1,8 ± 0,8 logMAR) (p>0,05, Friedman-Test). Der präoperative IOD (Mittelwert 46,0 ± 10,3 mmHg) sank nach einem Jahr signifikant (14,2 ± 8,9 mmHg) (p<0,001, Friedman-Test). Der Glaukom-Medikations-Score (GMS) nahm zwischen präoperativ (4,8 ± 2,5) und einem Jahr (1,8 ± 1,8) (p<0,001, Friedman-Test) signifikant ab. Präoperativ gaben n=27 (32,5 %) der Patienten auf der visuellen Analogskala (VAS) Schmerzen mit einem Mittelwert von 6,3 ± 1,6 an. Postoperativ waren 96,4 % der Patienten (n=80) schmerzfrei (VAS 0,15 ± 0,5). Patienten mit Schmerzen (49,2 ± 7,9 mmHg) hatten einen signifikant höheren Augeninnendruck als schmerzfreie Patienten (44,5 ± 11,1 mmHg) (p=0,027, Welch-Test). Die postoperative Entzündung war häufig deutlich ausgeprägt, jedoch bei allen Augen vorübergehend und zu jedem Zeitpunkt schmerzlos. Eine Netzhautablösung trat bei insgesamt 4 Augen (6,9 %) auf. 3 von diesen Augen (5,7 %) entwickelten eine Phthisis bulbi.
Die in dieser Dissertation analysierte kombinierte chirurgische Behandlungsstrategie senkt den IOD signifikant, führt zu einer wirksamen Schmerzkontrolle, verringert den Bedarf an Glaukom-Medikamenten und zeigte eine ähnliche Effektivität und Erfolgsrate wie Glaukom-Drainage-Implantate bei vergleichsweise günstigerem Komplikationsspektrum. Der Visus blieb in den meisten Augen unverändert und im Gegensatz zu anderen Studien kam es seltener zu einem Sehverlust. Die Hälfte der Augen benötigten keine weiteren chirurgischen Eingriffe und kein Auge musste enukleiert werden.
In dieser Dissertation wurden die 2-Jahres-Ergebnisse einer FTO mit einer konventionellen TE bei Offenwinkelglaukom miteinander verglichen, um die Effektivität und Sicherheit zu analysieren. Das exact matching, bei dem die Patienten basierend auf dem Ausgangs-IOD und Glaukommedikation 1:1 (FTO:TE) gematcht wurden, ermöglicht eine genaue und ausgewogene Vergleichbarkeit der Daten.
Die FTO wurde bei 110 Patienten durchgeführt. Durch ein verbleibendes Trabeculo-Descemet-Fenster vor dem Sklerallappen konnte eine Iridektomie vermieden werden. Die TE, welche bei 86 Patienten durchgeführt wurde, verwendete eine Block-Exzision des Trabekelmaschenwerks und eine Iridektomie. Bei beiden Operationstechniken wurde MMC verwendet. Die Patienten wurden anhand des Ausgangsaugeninnendrucks (IOD) und der Anzahl der Glaukommedikamente verglichen. Ein absoluter Erfolg (IOD ≤ 18 mmHg und IOD-Reduktion ≥ 30 %, ohne Medikation) und relativer Erfolg (IOD ≤ 18 mmHg und IOD-Reduktion ≥ 30 %, mit Medikation) waren die primären Endpunkte. IOD, Sehschärfe (BCVA), Komplikationen und Interventionen waren sekundäre Endpunkte.
44 FTO-Patienten wurden mit einem IOD von 22,5 ± 4,7 mmHg und 3 ± 0,9 Medikamenten exakt auf 44 TE Patienten abgestimmt. Nach 24 Monaten wurde ein absoluter Erfolg von 59 % bei FTO und 66 % bei TE und ein relativer Erfolg von 59 % bei FTO und 71 % bei TE erzielt. In der FTO-Gruppe reduzierte sich der Augeninnendruck nach 12 Monaten auf 12,4 ± 4,3 mmHg und nach 24 Monaten auf 13,1 ± 4,1 mmHg. In der TE-Gruppe betrug der Augeninnendruck nach 12 Monaten 11,3 ± 2,2 mmHg und nach 24 Monaten 12,0 ± 3.5 mmHg. Die Medikation verringerte sich nach 24 Monaten auf 0,6 ± 1,3 in FTO und 0,2 ± 0,5 in TE.
Zu keinem Zeitpunkt gab es signifikante Unterschiede zwischen den beiden Gruppen in Bezug auf Augeninnendruck, Medikamente, Komplikationen oder weitere Interventionen.
Die Modifikation des Kammerwasserabflusses durch eine begrenzte TE bei FTO führte zu ähnlichen klinischen Ergebnissen wie die herkömmliche Blockexzision des Trabekelmaschenwerks mit Iridektomie bei TE.
CARMO – kurz für „kardiologisches Monitoring“ – stellt eine Erweiterung des im Rahmen onkologischer Phase I/II Studien bereits implementierten kardiologischen Begleitmonitorings dar. Insgesamt 90 Studienpatienten der Early Clinical Trial Unit des Comprehensive Cancer Centers Mainfranken wurden möglichst über einen Zeitraum von sechs Monaten experimenteller Therapie mittels serieller Elektrokardiogramme (EKG), Echokardiographie inklusive Deformationsbildgebung und Bestimmung der kardialen Biomarker systematisch kardiologisch überwacht. Veränderungen der kardialen Funktion wurden anhand der Common Terminology Criteria of Adverse Events (CTCAE Version 4.03) graduiert. Auf Grundlage unserer klinischen Ergebnisse konnten schließlich das 12-Kanal-EKG, die Echokardiographie inklusive der Deformationsbildgebung, der kardiale Biomarker High-sensitive Troponin und zusätzlich erstmalig auch das LZ-EKG als wichtige Untersuchungsmodalitäten eines möglichst vollständigen kardialen Assessments identifiziert werden. Hypothetisch können die CARMO-Ergebnisse somit als Basis für verbesserte datenbasierte Empfehlungen zukünftiger kardiologischer Monitoringprogramme dienen.
Prädiktion des Verschlusses großer intrakranieller Arterien anhand präklinischer Schlaganfallscores
(2021)
2015 konnte in mehreren Studien ESCAPE, EXTENDED IA, MR CLEAN, REVASCAT, SWIFT-PRIME eine signifikante Überlegenheit der mechanischen Thrombektomie verglichen mit der alleinigen i. v. Lysetherapie mit rtPA bezogen auf Revaskularisierung bei Patienten mit einer LVO (large vessel occlusion) nachgewiesen werden. Diese neue Therapiemöglichkeit erforderte eine Aufteilung der Patienten die von einer Thrombektomie profitieren (LVO) und der Patienten, die keiner Thrombektomie zugeführt werden können (nLVO). Die zentrale Fragestellung der Studie ist: Kann ein symptomorientierter Schlaganfallscore die Wahrscheinlichkeit eines großen intrakraniellen Gefäßverschlusses mit hinreichender Präzision vorhersagen und kann auf Basis dieser Vorhersage ein Patient direkt in ein übergeordnetes Schlagfanfallzentrum gebracht werden, obwohl sich dadurch eine Bridging Lysetherapie verzögern würde?
Um diesen Fragen auf den Grund zu gehen führten wir eine monozentrische Querschnittstudie durch, in deren Rahmen 215 Patienten rekrutiert wurden. Die Rekrutierung erfolgte mittels eines aus Subitems bereits etablierter Schlafanfallscores (FAST, CPSS, LAPSS, 3ISS, RACE), zusammengesetzten Fragebogens. Die ausgefüllten Fragebögen wurde in Excel digitalisiert und mittels SPSS, Signifikanz und Odds Ratio berechnet. Anschließend wurde aus den signifikanten Subitems mit der höchsten Odds Ratio ein neuer einfach anzuwendender Schlaganfallscore, bestehend aus den präklinisch erhobenen Daten gebildet (Würzburg Score of Large Vessel Occlusions, WOLVE- Score). Weiter wurden Signifikanz, Odds Ratio, Sensitivität und Spezifität des WOLVE-Score mit denen der oben genannten etablieren Scores verglichen.
Within three self-contained studies, this dissertation studies the impact and interactions between different macroeconomic policy measures in the context of financial markets empirically and quantitatively. The first study of this dissertation sheds light on the financial market effects of unconventional central bank asset purchase programs in the Eurozone, in particular sovereign bond asset purchase programs. The second study quantifies the direct implications of unconventional monetary policy on decisions by German public debt management regarding the maturity structure of gross issuance. The third study provides novel evidence on the role of private credit markets in the propagation of public spending toward private consumption in the U.S. economy. Across these three studies a set of different time-series econometric methods is applied including error correction models and event study frameworks to analyze contemporaneous interactions in financial and macroeconomic data in the context of unconventional monetary policy, as well as vector auto regressions (VARs) and local projections to trace the dynamic consequences of macroeconomic policies over time.
High-resolution nuclear magnetic resonance (NMR) spectroscopy is used in structure elucidation and qualitative as well as quantitative examination of product components. Despite the worldwide development of numerous innovative NMR spectroscopic methods, several official methods that analyze specific substances and do not represent a holistic analysis, are still in use for the quality control of drugs, food and chemicals. Thus, counterfeit or contaminated products of inferior quality can be brought onto the market and distributed despite previous quality controls. To prevent this, three NMR spectroscopic methods have been developed within the scope of this work (1) to study the peroxide value in vegetable and animal oils, (2) for the qualitative and quantitative analysis of metal cations and (3) to determine the enantiomeric excess in chiral alcohols. In oil analysis, titration methods are used to determine the bulk quality parameters such as peroxide value, which represents the concentration of peroxides. Titrations show several drawbacks, such as the need of a large amount of sample and solvents, cross reactions and the low robustness. Thus, an alternative NMR spectroscopic method was developed to improve the peroxide analysis by using triphenylphosphine as a derivatization reagent, which reacts with peroxides in a stoichiometric ratio of 1:1 forming triphenylphosphine oxide. In the 1H-31P decoupled NMR spectrum, the signals of the unreacted triphenylphosphine and the reacted triphenylphosphine oxide are detected at 7.4 ppm and 7.8 ppm, respectively. The ratio of the two signals is used for the calculation of the peroxide concentration. 108 oil samples with a peroxide value between 1 meq/kg and 150 meq/kg were examined using the developed method. Oils with a very low peroxide value of less than 3 meq/kg showed a relative standard deviation of 4.9%, highly oxidized oils with a peroxide value of 150 meq/kg of 0.2%. The NMR method was demonstrated as a powerful technique for the analysis of vegetable and krill oils. Another 1H NMR spectroscopic method was developed for the qualitative determination of Be2+, Sr2+ and Cd2+, and for the qualitative and quantitative determination of Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ by using ethylenediamine tetraacetate (EDTA) as complexing agent. EDTA is a hexadentate ligand that forms stable chelate complexes with divalent cations. The known amount of added EDTA and the signal ratio of free and complexed EDTA are used to calculate the concentrations of the divalent cations, which makes the use of an internal standard obsolete. The use of EDTA with Be2+, Sr2+, Cd2+, Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ result in complexes whose signals are pH-independent, showing cation-specific chemical shifts and couplings in the 1H NMR spectrum that are used for identification and quantification. In the presented NMR method, the limit of quantification of the cations Ca2+, Mg2+, Hg2+, Sn2+, Pb2+, and Zn2+ was determined with 5-22 μg/mL. This method is applicable in the food and drug sectors. The third NMR spectroscopic method introduced an alternative determination of the enantiomer excess (ee) of the chiral alcohols menthol, borneol, 1-phenylethanol and linalool using phosgene as a derivatizing reagent. Phosgene reacts with a chiral alcohol to form carboxylic acid diesters, made of two identical (RR, SS) or two different enantiomers (RS, SR). These two different types of diastereomers can be examined by the difference of their chemical shifts. In the presented method, the integration values of the carbonyl signals in the 13C NMR spectrum are used for the determination of the enantiomer excess. The limit of quantification depends, among others, on the sample and on the non-labelled or 13C-labelled phosgene used for the analysis. In the case of menthol, a quantification limit of ee=99.1% was determined using non-labelled phosgene and ee=99.9% using 13C-labelled phosgene. The 13C NMR method was also applied for the quality control of the enantiomeric purity of borneol, 1-phenylethanol and linalool. The developed 13C NMR method represents a powerful alternative to Mosher’s reagent for investigating the enantiomeric excess in chiral alcohols. This work demonstrates the variety of possibilities of applications for the quantitative nuclear magnetic resonance spectroscopy in the chemical analysis of drugs, food and chemicals using tagging reactions such as derivatizations and complexations. The nuclear resonance spectroscopic methods developed in this research work represent powerful alternatives to the previously used quality control techniques.
Die Narbenhernie stellt eine häufige Komplikation nach Laparotomien dar. Die Therapie der Narbenhernie erfolgt mittels chirurgischer Netzimplantation. Dieses Verfahren erfordert detaillierte anatomische Kenntnisse. Dem ethischen Imperativ folgend, wurde ein kosten-effizientes Modell entwickelt, welches den humanen Situs imitiert und an dem sich eine retromuskuläre Netzimplantation durchführen lässt. Das High-Fidelity-Modell besteht zum Hauptteil aus 2-Komponenten-Silikon. Das Modell wurde entwickelt und im Rahmen dieser Studie validiert. Zur Ermittlung der Testpersonenanzahl wurde die Methodik des sequentiellen Dreieckstests genutzt. Nachdem 6 Anfänger (PJ-Studierende) und 6 Könner (Fachärzte für Viszeralchirurgie) jeweils ein Modell operiert hatten, wurde die Kontent-, die Konstrukt- und die Kriterienvalidität untersucht. Anschließend wurde das Modell und die Operationsdurchführung mit drei Methoden untersucht. Zum einen füllten die Teilnehmenden einen Fragebogen bezüglich der Realitätsnahe des Modells direkt nach der Operation aus. Außerdem bewerteten drei verblindete Bewerter die Operationen anhand des Competency assessment tool (CAT), welcher eine modifizierte Version des Fragebogens nach Miskovic darstellt, nach den folgenden Subskalen: „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Mängel und Fehler“, „Qualität des Endprodukts“. Zuletzt wurden die operierten Modelle bezüglicher der „Endergebnisse“ autopsiert und bewertet.
Die Ergebnisse zeigen, dass am SUBsON-Modell eine Narbenhernienoperation mit Netzimplantation authentisch durchgeführt werden kann. Die Testpersonen bewerteten das Modell als realitätsnah. Die Reliabilität war in allen Kategorien gut bis exzellent. Die Könner waren in allen Subskalen des CATs den Anfängern überlegen. Bei Betrachtung der Kriterienvalidität zeigte sich ein paradoxer Effekt: Bei der Präparation des Fatty Triangles erbrachten die Anfänger eine signifikant (p< 0,05) höhere Leistung als die Könner. Mögliche Erklärungen dafür sind mannigfaltig.
Die Leistungsunterschiede zwischen Anfängern und Könnern bestätigen die Konstruktvalidität von Modell und Fragebogen sowie die Realitätsnähe des Modells. In dieser Studie konnten Defizite vor allem unter Könnern bezüglich anatomischer Kenntnisse bei der Präparation des Fatty Triangles aufgezeigt werden. Das Modell kann zukünftig genutzt werden, um die Netzimplantation und die Präparation des Fatty Triangles zu üben als auch um die chirurgischen Leistungen zu evaluieren.
Veränderung der Ranvier’schen Schnürringarchitektur bei Patienten mit diabetischer Neuropathie
(2021)
In der Krankheitsentstehung der diabetischen Neuropathie wird die paranodale Demyelinisierung als ein möglicher Pathomechanismus diskutiert, wobei Studien mit Gewebeproben von Patienten aufgrund der Invasivität limitiert sind. In der vorliegenden Studie wurden periphere Nervenfasern in Hautbiopsien von Patienten mit diabetischer Neuropathie und in Patienten mit Diabetes mellitus ohne Neuropathie untersucht. Ziel war es, nodale und paranodale Veränderungen, wie eine Dispersion der paranodalen Proteine Caspr und Neurofascin oder der nodalen Na-Kanäle, zu detektieren und die Proben auf verlängerte Ranvier`sche Schnürringe zu untersuchen.
Es wurde die Hypothese überprüft, dass paranodale Demyelinisierungen bei Patienten mit diabetischer Neuropathie in Hautbiopsien, als minimal-invasive Methode, nachweisbar sind. Hautproben von Patienten mit Diabetes mellitus ohne Neuropathie sollten zudem in einem frühen Krankheitsstadium untersucht werden.
Für die Untersuchung konnten 35 Patienten mit einer diabetischen Neuropathie, 17 Patienten mit Diabetes mellitus und 31 Kontrollen eingeschlossen werden. Immunfluoreszenzfärbungen mit Antikörpern gegen Caspr, Neurofascin und Natrium-Kanälen wurden zur Analyse der Ranvier`schen Schnürringarchitektur durchgeführt und ausgewertet.
Eine erhöhte Anzahl an verlängerten Schnürringen, als Zeichen einer segmentalen Demyelinisierung, konnte in den Patienten mit diabetischer Neuropathie aber auch in Patienten mit Diabetes mellitus nachgewiesen werden. Weiterhin waren vermehrt Veränderungen der paranodalen Proteine, wie eine Dispersion von Caspr und Neurofascin in den Proben des Fingers der Patienten mit diabetischer Neuropathie sowie eine Dispersion von Neurofascin im Unterschenkel in beiden Patientengruppen nachweisbar. Interessanterweise waren einzelne Veränderungen auch in den gesunden Kontrollen auffindbar.
Veränderungen der Schnürringarchitektur lassen sich mithilfe der Hautbiopsie nachweisen und quantifizieren. Nodale und paranodale Veränderungen weisen auf demyelinisierende Prozesse in Patienten mit diabetischer Neuropathie hin und finden sich auch bereits in einem frühen Krankheitsstadium.
Die Stammzellforschung beschäftigt sich bereits seit Jahren mit der Frage, wie Gewebe oder sogar Organe im Labor hergestellt werden können. Als besonders vielversprechend erscheinen hierfür humane Mesenchymale Stammzellen (hMSC), da diese in vielen Fällen direkt vom Empfänger gewonnen werden können und so keine Organ- oder Gewebeabstoßung durch Abwehrreaktionen zu erwarten ist. Für die weitere Erforschung des Verhaltens von Stammzellen in vivo ist es notwendig, diese nicht-invasiv darstellen zu können. Dies ist zum Beispiel mittels Magnetischer Partikel Bildgebung (MPI) möglich. Hierfür müssen die Stammzellen mit einer geeigneten Substanz markiert werden. Eine solche sind beispielsweise superparamagnetische Eisenoxidnanopartikel (SPION). Derzeit gibt es keine von den medizinischen Zulassungsbehörden zugelassenen SPION die ohne TA in hMSC aufgenommen werden. In der hier vorliegenden Arbeit sollte also im Rahmen des
EU-weiten „IDEA-Projekts“ ein geeigneter SPION identifiziert werden, der eine optimale Zell-Partikel-Interaktion aufweist und sowohl mittels MPI als auch mit Raman-Spektroskopie nachweisbar ist. Zudem sollte die Nachweisbarkeit des SPION über einen längeren Zeitraum gegeben und kein Einfluss auf die hMSC feststellbar sein. Es wurden hMSC mit den Eisenoxidnanopartikeln M4E, M4F, M4F2 und M3A-PDL in unterschiedlichen Konzentrationen markiert. Für M3A-PDL und M4E erfolgten bei einer Konzentration von 0,5 mg/ml Untersuchungen in Zellkultur sowie auf SIS-ser als Matrix im 3D-Modell. Desweiteren wurde das Differenzierungsverhalten der mit M4E markierten hMSC bei chondrogener Differenzierung untersucht. Außerdem kamen Magnetische Partikel Spektroskopie (MPS) und Raman-Spektroskopie als nicht-invasive Nachweisverfahren zum Einsatz. Der SPION-Nachweis erfolgte histologisch mittels Berliner Blau Färbung. Untersuchungen zu Zellviabilität und Proliferation erfolgten durch Trypanblau sowie Ki67-Antikörper-Färbung. Um Nachzuweisen ob auch markierte Zellen proliferieren wurde eigens ein kombiniertes Färbeprotokoll zur Kombination von Berliner Blau und immunhistochemischer Färbung
etabliert. Der Erfolg der chrondrogenen Differenzierung wurde mittels Alcianblau, Aggrecan- und Kollagen-II-Antikörper Färbung überprüft. Es konnte gezeigt werden, dass M4E bei der Markierung von hMSC eine sehr gute Zell-Partikel-Interaktion aufweist und im Gegensatz zu M3A auch ohne TA in die Zellen aufgenommen wird. Durch beide Partikel werden Zellviabilität und Proliferation nicht beeinflusst. M4F sowie M4F2 ist zur Markierung nicht geeignet. Die Markierung ließ sich im 3D-Modell mit vier Wochen deutlich länger nachweisen als in 2D Zellkultur mit maximal zwei Wochen. Die chondrogene Differenzierung wird durch die Markierung mit 0,5 mg/ml M4E beeinflusst. M3A-PDL sind durch MPS nachweisbar. Die Raman-Spektroskopie eignet sich zur Differenzierung zwischen mit M3A-PDL markierten und unmarkierten hMSC. Es ist im Rahmen dieser Arbeit gelungen, einen
Eisenoxidnanopartikel mit hervorragender Zell-Partikel-Interaktion zu identifizieren, der ohne zusätzliches TA eine intensive Markierung der hMSC ermöglicht und mit MPS nachweisbar ist. Für M4E konnte in weiteren Arbeiten am Institut bereits gezeigt werden, dass auch eine Differenzierung zwischen markierten und unmarkierten Zellen mittels Raman-Spektroskopie möglich ist. Die chondrogene Differenzierung der hMSC wurde in der vorliegenden Arbeit allerdings beeinträchtigt. In der Literatur finden sich Hinweise auf eine dosisabhängige Inhibition der Differenzierung. Es sind daher weitere Versuche notwendig, um herauszufinden, ob die Inhibition der Differenzierung möglicherweise bei geringerer SPION-Konzentration weniger ausgeprägt ist. Zudem sollte untersucht werden, ob auch geringere Konzentrationen in den Zellen über mehrere Wochen mittels MPS nachweisbar bleiben. Desweiteren sollten Untersuchungen in, der in vivo Situation ähnlicheren,
Systemen, wie dem dynamischen Umfeld einer BioVaSc-TERM® durchgeführt werden um bessere Vorhersagen zum Verhalten markierter hMSC in vivo treffen zu können.
Bei den primär herzgesunden Tieren wurde durch Frequenz-Überstimulation mit Hilfe eines implantierten biventrikulären Herzschrittmachers eine chronische Herzinsuffizienz induziert. Im Rahmen der Verlaufsbeobachtungen wurde in-vivo die Druckanstiegsgeschwindigkeit dP/dtmax, der enddiastolische sowie endsystolische Druck durch einen implantierten Drucksensor gemessen. Anhand der gemessen dP/dtmax-, EDP- und ESP-Werte konnte der Bowditcheffekt dargestellt werden. Mit Ausprägung einer chronischen Herzinsuffizienz fiel dieser im Verlauf deutlich geringer aus, blieb aber stets nachweisbar.
Hintergrund: Das Catechol-O-Methyltransferase-Gen (COMT) ist ein vielversprechendes Kandidatengen zur Untersuchung kognitiver und emotionaler Funktionen sowie deren pathologischer Veränderungen. Ein einzelner Basenaustausch in diesem Gen führt zu einer 3-4fach höheren COMT-Aktivität der Val Variante. Ein dadurch vermitteltes dopaminerges Defizit wird als relevanter Faktor für eine veränderte Hirnfunktion angenommen.
Mit dem kognitiven Stroop-Paradigma wurden kognitive Verarbeitungsprozesse bisher gut erforscht. Zur Erfassung emotionaler Verarbeitungsprozesse wurde eine emotionale Variante entwickelt, deren neurale Grundlagen bislang weniger gut bekannt sind. Ziel: Unsere imaging genetics-Arbeit untersucht den Einfluss genetischer Varianten auf die neurale Funktion. Ziel dieser experimentellen Arbeit war es, den Einfluss des COMT-Polymorphismus (COMT-PM) auf die Frontalkortex-Funktion in ausgewählten Regionen von Interesse (ROI) zu erfassen und der Frage nachzugehen, ob das Val-Allel als Risiko-Allel zur Pathogenese einer Angststörung (AS) beitragen könnte. Zudem sollte die Tauglichkeit des emotionalen Stroop- Paradigmas als angstsensibles Messinstrument zur Untersuchung dieser Fragestellung geprüft werden. Demgegenüber steht die Annahme, das emotionale Stroop-Paradigma könnte lediglich eine Arbeitsgedächtnis (AG)-Aufgabe darstellen. Methoden: Mittels funktioneller Nahinfrarotspektroskopie (fNIRS) und ereigniskorrelierter Potentiale untersuchten wir 121 gesunde nach dem COMT- Val158Met-PM stratifizierte Probanden während eines kombiniert emotional- kognitiven Stroop-Paradigmas. Als neurale Korrelate von Exekutivfunktionen und AG-Aufgaben waren die ROI dabei der laterale präfrontale und inferiore Kortex, die auch mit emotionaler Regulation in Verbindung gebracht werden. Als Parameter der Reaktion des autonomen Nervensystems (ANS) diente die Erfassung der elektrodermalen Aktivität sowie die kontinuierliche Messung von Blutdruck, Herzfrequenz und Herzratenvariabilität. Ergebnisse: Bei allen drei COMT Varianten zeigte sich ein kognitiver Stroop-Effekt mit verlängerter Reaktionszeit und erhöhter Fehleranzahl während der Präsentation inkongruenter Farbworte. Als Reaktion des ANS stellte sich eine erhöhte elektrodermale Aktivität bei inkongruenten Farbworten dar. Die funktionelle Bildgebung ließ in den analysierten Regionen eine erhöhte präfrontale Aktivierung während der Verarbeitung inkongruenter Farbworte nachweisen. Es fanden sich keine Gruppenunterschiede im kognitiven Stroop-Paradigma. Der einzige emotionale Stroop-Effekt zeigte sich in der P300. Der einzig nachweisbare Gruppeneffekt stellte sich im emotionalen Stroop-Paradigma als höhere Fehleranzahl bei Met-Homozygoten verglichen mit Heterozygoten dar. Schlussfolgerung: Genetische Information und funktionelle Bildgebung kombiniert sollten ermöglichen, neurale Mechanismen zu definieren, die mit genetischen Varianten verlinkt sind. Die Ergebnisse bezogen auf die analysierten Regionen liefern keinen Hinweis auf ein Val-Allel assoziiertes Risiko für die Entwicklung einer AS. Damit gelingt es nicht, bisher gewonnene Ergebnisse zum Einfluss des COMT-PM auf die präfrontale Funktion zu replizieren. Fraglich ist jedoch, ob sich das emotionale Stroop-Paradigma zur Untersuchung dieser Frage eignet, da weder in den fNIRS-, noch in den autonomen oder Verhaltensdaten ein emotionaler Stroop-Effekt nachgewiesen werden konnte.
Computer games are highly immersive, engaging, and motivating learning environments. By providing a tutorial at the start of a new game, players learn the basics of the game's underlying principles as well as practice how to successfully play the game. During the actual gameplay, players repetitively apply this knowledge, thus improving it due to repetition. Computer games also challenge players with a constant stream of new challenges which increase in difficulty over time. As a result, computer games even require players to transfer their knowledge to master these new challenges. A computer game consists of several game mechanics. Game mechanics are the rules of a computer game and encode the game's underlying principles. They create the virtual environments, generate a game's challenges and allow players to interact with the game. Game mechanics also can encode real world knowledge. This knowledge may be acquired by players via gameplay. However, the actual process of knowledge encoding and knowledge learning using game mechanics has not been thoroughly defined, yet. This thesis therefore proposes a theoretical model to define the knowledge learning using game mechanics: the Gamified Knowledge Encoding. The model is applied to design a serious game for affine transformations, i.e., GEtiT, and to predict the learning outcome of playing a computer game that encodes orbital mechanics in its game mechanics, i.e., Kerbal Space Program. To assess the effects of different visualization technologies on the overall learning outcome, GEtiT visualizes the gameplay in desktop-3D and immersive virtual reality. The model's applicability for effective game design as well as GEtiT's overall design are evaluated in a usability study. The learning outcome of playing GEtiT and Kerbal Space Program is assessed in four additional user studies. The studies' results validate the use of the Gamified Knowledge Encoding for the purpose of developing effective serious games and to predict the learning outcome of existing serious games. GEtiT and Kerbal Space Program yield a similar training effect but a higher motivation to tackle the assignments in comparison to a traditional learning method. In conclusion, this thesis expands the understanding of using game mechanics for an effective learning of knowledge. The presented results are of high importance for researches, educators, and developers as they also provide guidelines for the development of effective serious games.
DD is a cardiac disturbance, which has gained increasing importance in recent years due to its important role in different cardiac disease and cardiomyopathies including ischemic cardiomyopathy, arterial hypertension and diabetic cardiomyopathy.
ECG-gated 18F-FDG PET is an imaging technique, that can distinguish between districts of myocardial viability and myocardial scars and further provides information of great interest on the efficacy of experimental approaches designed to improve the cardiac function and/or myocardial metabolism in experimental small animal models. However, ECG-gated 18F-FDG PET is a technique whose feasibility in the assessment of the LV diastolic function in small animals has not been a subject of study.
In this thesis, the ability of the ECG-gated 18F-FDG PET for the assessment of both the systolic and diastolic function in eight control rats and in seven ZDF rats, which are an experimental animal model mimicking T2DM conditions and diabetic related complications in humans including DCM, has been investigated The ECG-gated 18F-FDG PET imaging was performed under hyperinsulinemic-euglycemic clamping and the data were stored in list mode files and retrospectively reconstructed. The systolic and diastolic parameters were achieved from the time/volume and the time/filling curve calculated from the software HFV. Additionally, the influence of the number of gates per cardiac cycle on the LV volumes and function parameters has been studied.
Hyperinsulinemic-euglycemic clamp procedure and blood glucose measurement did confirm the development of a manifest diabetes in the ZDF rats at the timepoint of the experiments.
Regarding the systolic parameters, no significant difference could be detected between the ZDF and ZL rats. The values for the CO were similar in both groups, which demonstrates a similar LV systolic function in the ZDF and the ZL rats at the age of 13 weeks. Values for the systolic parameters are in good line with previous PET, MRI and cardiac catheterization-based studies in diabetic rats.
The main finding of this study was that by using in vivo ECG-gated 18F-FDG PET and the software HFV, reliable diastolic parameters could be calculated. Moreover, it was possible to detect the presence of a mild impaired diastolic filling in the ZDF rats in absence of any systolic alteration. This impaired diastolic function in an early stage of diabetes could also be detected by other investigators, who used echocardiography or cardiac catheterization. Therefore, this is the first study showing, that the assessment of the diastolic function in rats can be carried out by ECG-gated 18F-FDG PET imaging.
In conclusion, additionally to calculating LV volumes and LV EF, ECG-gated 18F-FDG PET can evaluate the diastolic function of healthy and diabetic rats and is able to detect a DD in ZDF rats.
Salt formation is a routinely used strategy for poorly water-soluble drugs and traditionally performed with small inorganic counterions. High energy crystal lattices as well as effects on the local pH within the aqueous boundary layer during dissolution drive the increased dissolution rate and apparent solubility. Ionic liquids however, by definition low melting ionic salts with often large organic counterions, combine an increased dissolution rate with solubilization of the drug by the counterion itself. Long lasting supersaturation profiles of increased kinetic solubility were reported for several drugs formulated as ionic liquids increasing their overall bioavailability. Furthermore, aggregation and micellization between highly lipophilic compounds and amphiphilic bile acids was described before, demonstrating the capabilities of the human body itself to utilize solubilization of poorly water-soluble compounds. Development of novel counterions not only tailoring the desired physicochemical properties e.g. dissolution rate of the parent drug but adding – in a best-case scenario synergistic – pharmacological activity has been driven forward in the last years. However, salt formation can only be applied for ionizable i.e. acidic or basic compounds. While co-crystals can be used as a nonionized alternative, their formation is not always successful leading to an urgent need for other formulation strategies. In these lines, development of 2D and 3D printing techniques has been ongoing for the last decades and their pharmaceutical application has been demonstrated. The versatile nature and commercial availability allow a decentralized production further elaborating this technique for a highly flexible and patient-oriented supply with medication.
This thesis focuses on the theoretical background and potential application of salt formation in the pharmaceutical development of a drug candidate. The first section presents the current knowledge and state of the art in preparation of low melting ionic liquids i.e. salts and is translated to the in vitro investigation of molecular interaction between the poorly water-soluble drug imatinib and components of the human intestinal fluid in the second section. Development of novel antibiotic counterions and assessment of their potential use in pharmaceutical formulations with fluoroquinolones is described in the last two sections.
Chapter I describes the application of low melting ionic liquids in pharmaceutical formulation and details their development in the last two decades from versatile organic solvents in chemical synthesis towards amorphous strategies for drug delivery. The chapter gives a general overview on molecular structure and physicochemical properties of several drug containing ionic liquids and details the mechanisms which attribute to a typically fast dissolution, increased aqueous solubility as well as enhanced permeation which was reported in several publications.
Chapter II translates the increased aqueous solubility of drugs by an organic counterion to the human gastrointestinal tract with taurocholate and lecithin as main drivers for the solubilization of highly lipophilic and poorly water-soluble drugs. Investigation of the interaction of imatinib – a poorly water-soluble weak base – with fasted- and fed state simulated intestinal fluids revealed a complex interplay between the components of the intestinal fluid and the drug. Mixed vesicles and micelles were observed in concentration dependent aggregation assays and revealed differences in their size, molecular arrangement as well as composition, depending on the tested drug concentration. Overall, the study outlines the effective interaction of weakly basic drugs with taurocholate and lecithin to minimize recrystallization during intestine passage finally leading to favorable supersaturation profiles.
Chapter III focuses on the development of novel antibiotic counterions which potentially move the evolution of ionic liquids from a pharmaceutical salt with tailored physicochemical properties to a synergistic combination of two active pharmaceutical ingredients. The natural occurring anacardic acid derived from the cashew nut shell inspired a series of antibacterial active acidic compounds with increasing alkyl chain length. Their physicochemical properties, antibacterial activity, bacterial biofilm inhibition and cytotoxicity were detailed and in vivo activity in a Galleria mellonella model was assessed. This group of anacardic acid derivatives is synthetically accessible, easily modifiable and yielded two compounds with favorable activity and physicochemical profile for further drug development.
Chapter IV outlines the potential application of anacardic acid derivatives in pharmaceutical formulations by salt formation with fluoroquinolone antibiotics as well as novel techniques such as 2D/3D printing for preparation of drug imprinted products. Despite anacardic acid derivatives demonstrated promising physicochemical properties, salt formation with fluoroquinolone antibiotics was not feasible. However, 2D/3D printed samples with anacardic acid derivative alone or in combination with ciprofloxacin demonstrated physical compatibility between drug and matrix as well as antibacterial activity against three S. aureus strains in an agar diffusion assay. Conclusively, drug printing can be applied for the herein tested compounds, but further process development is necessary.
In summary, preparation of low melting ionic liquids, salts or co-crystals is an appropriate strategy to increase the aqueous solubility of poorly water-soluble drugs and tailor physicochemical properties. The counterion itself solubilizes the drug and furthermore potentially interferes with the complex micellar environment in the human intestine. However, salt formation as routinely used formulation strategy is not feasible in every case and development of alternative techniques is crucial to hurdle challenges related to unfavorable physicochemical properties. The outlined techniques for 2D/3D drug printing provide versatile production of drug products while extending the design space for novel drug development.
Das Ziel der vorliegenden Arbeit war die retrospektive Analyse von Patienten mit einer mykobakteriellen Hautinfektion, die sich an der Klinik und Poliklinik für Dermatologie, Venerologie und Allergologie des Universitätsklinikums Würzburg oder in der Fachabteilung für Tropenmedizin der Missioklinik Würzburg in dem Zeitraum zwischen 1998 und 2018 vorgestellt haben. Es wurden verschiedene Aspekte wie die Anamnese, der mutmaßliche Infektionsweg, klinische und diagnostische Daten sowie die durchgeführte Therapie untersucht. Es konnten insgesamt 32 Fälle erfasst werden, die in 4 erregerspezifische Gruppen unterteilt wurden. Die Gruppe der Mycobacterium (M.) marinum-Infektionen war mit 18 Fällen am größten, gefolgt von 9 Infektionen mit weiteren nichttuberkulösen Mykobakterien (NTM; M. chelonae, M. avium, M. fortuitum, M. wolinskyi/ mageritense sowie M. haemophilum), 3 Fällen mit dem Erreger M. leprae sowie 2 kutanen M. tuberculosis-Infektionen. Der Anteil immunsupprimierter Patienten mit einer M. marinum-Infektion lag bei 22 %. In unserer Untersuchung stellte der Umgang mit Zierfischaquarien den größten Risikofaktor für eine Infektion mit M. marinum dar. Wie unsere Studie weiterhin zeigte, sollte auch bei knotigen Hautveränderungen in für kutane Mykobakteriosen untypischen Körperarealen, wie z.B. dem Gesicht, eine solche Infektion differentialdiagnostisch erwogen werden. Der kulturelle Nachweis misslang lediglich bei 2 Patienten mit einer M. marinum-Infektion. Die Diagnose konnte in diesen beiden Fällen anhand einer charakteristischen Anamnese, Klinik und Histopathologie gestellt werden. In der vorliegenden Untersuchung erfolgte die Therapie bei allen Patienten mittels einer Antibiose. In der M. marinum-Gruppe erwies sich insbesondere der Wirkstoff Clarithromycin als effektiv. Unter der Gabe von Doxycyclin kam es dagegen in 80 % der Fälle zu einer Therapieumstellung. In beiden Gruppen nichttuberkulöser Mykobakteriosen konnten die Monotherapien im Durchschnitt früher erfolgreich beendet werden als die Kombinationstherapien. Letztere kamen allerdings zum Einsatz bei einer zugrundeliegenden Immunsuppression bzw. bei einem ausgedehnten Hautbefund.
Zielvorgabe dieser Dissertation stellte die Konstruktion eines Plasmides mit mehreren shRNA-Expressionskassetten für den simultanen Knockdown onkogener Zielstrukturen im Multiplen Myelom dar. Es sollte sich zudem um ein Konstrukt handeln, bei dem ein beliebig häufiges Einfügen oder Ersetzen von Expressionskassetten durch einfache Klonierungsschritte möglich ist.
Im Rahmen dieser Arbeit wurden Plasmide mit bis zu vier unterschiedlichen shRNA-Expressionskassetten konstruiert und getestet. Mittels Elektroporation und anschließender Analyse der Knock-down-Effizienz im Western Blot konnte beispielhaft an Proteinen des MEK-ERK-Signalweges gezeigt werden, dass mithilfe der klonierten Plasmide die Spiegel von mindestens vier Zielproteinen gleichzeitig herunterreguliert werden können, ohne dass es dabei zu Einschränkungen im Vergleich zur Verwendung von Einzel-shRNA-Expressionsvektoren kommt. Es konnte gezeigt werden, dass weder die zunehmende Menge an hintereinander klonierten Kassetten noch die Reihenfolge der einzelnen Expressionskassetten im Plasmid einen negativen Einfluss auf das Knock-down-Ergebnis haben. Dieses Ergebnis konnte in verschiedenen Zelllinien des Multiplen Myeloms bestätigt werden. Die Vorteile des Verfahrens liegen vor allem in der Kosteneffizienz, der einfachen Herstellung und Modifikation, sowie der niedrigen biologischen Sicherheitsstufe der Versuchsschritte. Bedeutend ist zudem die Vermeidung von toxischen Effekten, welche das Einbringen von Fremd-DNA in Zellen ab gewissen Mengen mit sich bringt, durch Klonierung aller shRNA-Expressionskassetten zu lediglich einem Plasmidkonstrukt. Einschränkungen erfährt die etablierte Methodik dadurch, dass die zu untersuchenden Zellen sich für die Transfizierung mit Plasmiden eigenen müssen und ein Verfahren der Selektion transfizierter von nativen Zellen verfügbar sein muss. Durch genannte Vorteile stellt das Konstrukt jedoch ein hervorragendes Mittel zur Erforschung zellulärer Signalwege und ihrer Interaktionen weit über die Erkrankung des Multiplen Myeloms hinaus dar. Es kann zudem als kostengünstige molekulare Methode zur Identifizierung neuer pharmakologischer Angriffspunkte bei Tumorerkrankungen dienen.
Die Ergebnisse dieser Arbeit wurden in Folgeversuchen genutzt um eine stabile Integration der shRNA-Expressionskassetten in die zelluläre DNA sowie eine pharmakologische Induzierbarkeit zu erreichen. Es konnte somit der Sprung von den transienten Knock-down-Versuchen dieser Arbeit hin zur langfristig verminderten Proteintranslation geschafft werden. Am Ende dieser Arbeit verblieb zu eruieren, inwieweit die Anzahl der shRNA-Expressionskassetten über die getestete Anzahl von vier erweiterbar wäre und ob die guten Erfahrungen mit dieser Methodik auch bei anderen Arten von Tumorzellen replizierbar sind. Das etablierte Vektorsystem könnte in künftigen Versuchen zur schnellen Erforschung bisher wenig untersuchter oder unbekannter Signalwege dienen.
Die Nikotinamid N-Methyltransferase (NNMT) wurde als wichtiger Regulator des Energiemetabolismus in Fettzellen beschrieben. So bewahrt ein NNMT Knock-down Mäuse vor einer nahrungsinduzierten Adipositas und bei reduzierter NNMT-Expression in weißen 3T3-L1 Adipozyten zeigen diese einen erhöhten zellulären Sauerstoffverbrauch.
Für den Adipozytenstoffwechsel ist die insulinstimulierte Glukoseaufnahme wesentlich. Um den Einfluss eines NNMT-Knock-downs auf diese zu untersuchen wurde unter Nutzung der Substratspezifitäten des prokaryotischen und eukaryotischen Isoenzyms der Glukose-6-phosphat-Dehydrogenase ein enzymatisch-photometrischer Assay zur Messung der Glukoseaufnahmerate in adhärenten weißen 3T3-L1 und braunen Adipozytenkulturen entwickelt.
Mit lentiviraler Transduktion wurde in den Adipozytenkulturen ein persistenter NNMT-Knock-down induziert. Die NNMT-Aktivität wurde mit einem fluoreszenzbasierten Assay gemessen und die Glukoseaufnahmerate in deren Abhängigkeit bestimmt.
Die Reduktion der NNMT-Aktivität verminderte die Glukoseaufnahmerate der 3T3-L1 Adipozyten sowohl basal, wie auch unter Insulinstimulation. Braune Adipozyten hingegen zeigten bei verringerter NNMT-Aktivität eine erhöhte insulinstimulierte Glukoseaufnahmerate, aber keinen Unterschied der basalen Glukoseaufnahmerate.
Dieser differenzielle Einfluss auf die Glukoseaufnahme weißer und brauner Adipozyten stärkt die wichtige Rolle der NNMT, die ihr zur Regulation des Fettzellstoffwechsels zugeschrieben wird und enthüllt erstmals eine direkte Wirkung auf braune Adipozyten.
Die Dissertation untersucht hospitalisierte Patienten in der Kinderklinik des Universitätsklinikum Innsbruck, die wegen einer rotaviren assoziierten Gastroenteritis hospitalisiert wurden. Der Untersuchungszeitraum war von Januar 2002 bis Dezmber 2012.Untersucht wurde die Hospitalisierungsrate, Hospitalisierungsdauer, Hospitalisierungsalter, die Schwere der Erkrankung sowie eine Änderung von nosokomialen und ambulanten Erwerb vor und nach Impfeinführung im Juli 2007.
Es wurden Perfusionsmessungen mittels MRT an Infarktpatienten im Akutstadium und im Langzeitverlauf durchgeführt und quantitativ mittels einem Sektormodell ausgewertet. Hierbei zeigte sich, dass sich die Perfusionswerte im Infarktareal und gesunden Myokard nicht signifikant unterschieden und dass sich diese auch im Jahresverlauf nicht signifikant änderten. Es ergab sich auch keine signifikante Korrelation zwischen der Größe des Infarkareales und den gemessenen Perfusionswerten.
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses.
To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error.
Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon.
To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized:
Contribution I - Forecasting Benchmark
To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope.
Contribution II - Telescope
To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively.
Contribution III - Chamulteon
To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%.
The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result.
Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience.
Der zweizeitige Endoprothesenwechsel gilt als Goldstandard der Therapie periprothetischer Gelenkinfektionen. Ein sicherer Ausschluss einer Infektpersistenz ist für den Therapieerfolg essentiel. Es wurde der diagnostische Nutzen synovialer Marker zum Ausschluss einer Infektpersistenz bei einliegendem Kniegelenksspacer untersucht. Weder mikrobiologische noch zytologische Synovia-Analysen sind zum Ausschluss einer Infektpersistenz im Rahmen des zweizeitigen Knieendoprothesenwechsels geeignet.
Morbus Fabry betrifft als lysosomale Speicherkrankheit viele Organsysteme durch die Ablagerung von Gb3 in verschiedenen Geweben. Besonders durch die Beteiligung von Nieren und Herz, wird die Lebenszeit von den Patienten häufig verkürzt. Eine Beschreibung konkreter klinischer Symptome, welche auch durch Allgemeinmediziner oder Zahnärzte erkannt werden könnten, könnte eine frühzeitigere Diagnose und damit frühzeitige Therapie ermöglichen. Besonders extraorale gesichtsspezifische Merkmale können von verschiedensten Gruppen von Ärzten erkannt werden.
Die extraorale Auswertung zeigte, wie in der Literatur beschrieben, das Vorkommen von periorbitaler Fülle, prominente Arcus superciliaris, eine kürzere und bullösere Nase. Die Auffälligkeiten waren besonders bei den Männern zu beobachten.
Die intraorale Auswertung wurde in dentale Auffälligkeiten und Ereignisse des Hart- und Weichgewebes eingeteilt. Bei den dentalen Ereignissen zeigte sich eine Diskrepanz zwischen der Kiefergröße und dem Zahnmaterial. So neigte das Patientenkollektiv eher zu einem Breitkiefer, was eine Erklärung für die multiplen Lücken im Frontzahnbereich der Patienten darstellt. An der Mundschleimhaut und perioral konnten vermehrt Angiokeratome und Teleangiektasien festgestellt werden, sowie das vermehrte Vorkommen von Exostosen. Speziell die Zunge der Patienten zeigte auch Auffälligkeiten in Form von einer subjektiven Makroglossie, einer Furchenzunge und Veränderungen der Papillen.
Die Auffälligkeiten in der Mundhöhle und im Kopf-Hals Bereich der Morbus Fabry Patienten sind, wie der Literatur beschrieben, vorhanden, jedoch stellen sie keine Schlüsselrolle in der Diagnose dar, da sie in allen Bereichen nur leichte Abweichungen oder Auffälligkeiten zeigen, welche nicht immer Auftreten und daher schwer zu diagnostizieren sind.
Die vorliegende retrospektive Untersuchung fasst Ergebnisse bei 69 Säuglingen zusammen, die in den Jahren 2010 bis 2014 aufgrund infantiler Hämangiome mit eingetretenen oder drohenden Komplikationen am Universitätsklinikum Würzburg mit dem Betablocker Propranolol oral behandelt wurden. Ergänzend wurden von 45 der 69 Elternpaare nach Therapieende Fragebögen zur subjektiven Einschätzung der Behandlung ihrer Kinder ausgefüllt. Die Ergebnisse dieser Studie zeigen in Zusammenschau mit zahlreichen Publikationen zu diesem Thema, dass Propranolol bei proliferierenden Säuglingshämangiomen eine sichere und hocheffektive Therapie bei gleichzeitig überschaubaren und nur in Einzelfällen gravierenden Nebenwirkungen hat.
Im Zeitraum von 2004 bis 2016 erhielten an der Neurologischen Universitätsklinik Würzburg Patienten mit einer chronisch progredienten Multiplen Sklerose insgesamt 595 Injektionen von intrathekalem Triamcinolonacetonid. Diese Arbeit befasst sich mit Sicherheit, Nebenwirkungen und Wirksamkeit der intrathekalen Therapieform.
In der vorliegenden klinischen retrospektiven Studie wurden 147 Goldteilkronen und 149 Keramikteilkronen an 296 Patienten nachuntersucht. Der Beobachtungszeitraum umfasste 9-25 Jahre nach Insertion (M = 14,28, SD = 3,59).
Die systematische Bewertung der Restaurationsqualität beruhte auf modifizierten USPHS-Kriterien, klinischen Parametern sowie einer röntgenologischen Beurteilung anhand eines Zahnfilms.
Die Goldteilkronen waren zu 68% (n = 100), Keramikteilkronen zu 75,2% (n = 112) in einem exzellenten bis akzeptablen Zustand. Eine Reparatur unter Erhalt der Restauration war bei 25,9% (n = 38) der Gold- und 20,8% (n = 31) der Keramikrestaurationen notwendig. Goldrestaurationen konnten in 6,1% der Fälle (n = 9) nicht erhalten werden, Keramikrestaurationen in 4% der Fälle (n = 6).
Die Qualität der Keramikrestaurationen war hinsichtlich der Kriterien Randverfärbung, Oberflächendefekte/Retention, Randqualität und Karies niedriger als die der hochgold-haltigen Restaurationen. Die Gesamtqualität wies keine signifikanten Unterschiede zwischen den Restaurationsgruppen auf. Vorhandene Plaqueakkumulation, erhöhtes Kariesrisiko und steigendes Patientenalter wirkten sich qualitätsmindernd auf die indirekten Restaurationen aus.
Gold- und Keramikteilkronen wiesen zufriedenstellende klinische Ergebnisse auf und können gleichermaßen als langfristige, hochqualitative Versorgung für ausgedehnte Defekte im Seitenzahnbereich angesehen werden.
Rezeptor-vermittelte Chemotherapie von ovarialen Karzinomzellen mit Disorazol-GnRH-Konjugaten
(2021)
Das Ovarialkarzinom stellt einen häufigen maligen Tumor der Frau dar, der meist spät diagnostiziert wird. Therapeutische Optionen sind nur eingeschränkt verfügbar und nebenwirkungsbehaftet. In der modernen Tumortherapie sind zielgerichtete medikamentöse Ansätze von immer größer Bedeutung und sind bei verschiedenen Entitäten bereits zugelassen. Da Ovarialkarzinome häufig GnRH-Rezeptoren exprimieren, stellt dies einen guten Angriffspunkt für mögliche Therapeutika dar.
In dieser Arbeit wurde die Wirkung von Disorazol, einem potenten Zytotoxin, in Kopplung an GnRH auf Ovarialkarzinom-Zellen untersucht. Unter anderem wurden hierbei RT-PCR, Kristallviolettversuche, WST-Versuche und FACS-Analysen durchgeführt.
Molekularbiologisch war eine deutliche Expression von GnRH-Rezeptoren auf ovarialen Karzinomzellen zu sehen. Es zeigte sich eine spezifische Toxizität von GnRH-Disorazol-Konjugaten auf Ovarialkarzinom-Zelllinien und andere GnRH-tragende Zellen. Lymphozyten aus dem peripheren Blut waren nicht im besonderen Maße anfällig für Disorazol. Verapamil konnte in einzelnen Zelllinien die Toxizität des Konjugats verstärken, eine Cisplatin-Resistenz hatte jedoch keinen Einfluss darauf. Apoptose-inhibierende Substanzen wie zVAD verminderten den Anteil an toten Zellen, Necrostatin war dazu nicht in der Lage.
Die spezifische Wirksamkeit von GnrH gekoppeltem Disorazol auf Ovarialkarzinomzellen bestätigt das ursprüngliche Therapiekonzept. Eine ausgeprägtere Hämatotoxizität konnte nicht nachgewiesen werden, was im Hinblick auf den klinischen Einsatz eine bedeutende Rolle spielt. Da einige weitere Entitäten wie das triple-negative Mamma-Karzinom GnRH-Rezeptor-exprimierende Zellen aufweisen, ist ein Einsatz auch in diesen Krankheitsbildern denkbar.
Die Anzahl von Patienten mit einer dauerhaften oralen Antikoagulation sowie einer elektiven Operation steigt kontinuierlich. Meist erfolgt die perioperative Umstellung auf ein niedermolekulares Heparin, das sogenannte Bridging. Bisher gibt es keine evidenzbasierte Leitlinie. In der aktuellen Literatur zeigt sich, dass das perioperative Bridging das Risiko einer postoperativen Blutung erhöht. Ziel der Studie war es, das Blutungsrisiko beim Bridging und die Leitlinienadhärenz bei viszeralchirurgischen Eingriffen zu untersuchen. Es handelt sich um eine retrospektive, monozentrische Studie. Die Patientenselektion erfolgte mit dem Krankenhausinformationssystem für den Zeitraum 01. Januar 2011 bis 31. Dezember 2014. Eingeschlossen wurden Patienten mit einer dauerhaften oralen Antikoagulation, verfügbaren Patientenakte und einem elektiven operativen Eingriff. Ausschlusskriterien waren Notfalleingriffe, bariatrische Eingriffe und Gefäßoperationen. Erfasst wurden Komorbiditäten, die perioperative Dosierung und Pausierung des Bridging sowie postoperative Komplikationen. Insgesamt konnten 263 Fälle ausgewertet werden, wobei in 58 Fällen postoperative Blutungen auftraten (22,1%; 30 subkutane Hämatome, 17 lokale Blutungen, 5 Hämaskos, 3 peranale Blutungen, 3 Sonstige), in 68 Fällen erfolgten Transfusionen (26%) und in 40 Fällen Revisionsoperationen (15%). Das Risiko für Blutungen war erhöht beim Bridging in einer therapeutischen Dosierung (2x1mg/kgEnoxaparin;N=51/189,27%) im Vergleich zur halb- therapeutischen (1x1mg/kg; N=3/26, 12%) und prophylaktischen Dosierung (1x40mg; N=4/49, 8%; P=0,007). Thromboembolische Ereignisse traten bei 2 Patienten auf (0,8%; Apoplex, Lungenembolie). Eine falsche Risikobewertung führte bei 28 Patienten (11%) zu einem nicht indizierten therapeutischen Bridging, wobei hier 7 Blutungen auftraten. Darüber hinaus war die perioperative Pausierung des Bridging bei der Mehrzahl der Fälle zu kurz. Die präoperative Pausierung korrelierte mit dem Risiko für Bluttransfusionen (P=0,028). Die Leitlinie wurde bei 96% der Patienten nicht befolgt.
Patienten mit einem Bridging in einer therapeutischen Dosierung unterliegen einem hohen Risiko für postoperative schwere Blutungskomplikationen. In der Praxis wird die Indikation zum Bridging oftmals nicht ausreichend differenziert und die perioperative Pausierung nicht eingehalten. Die Indikation zum perioperativen Bridging muss mit Hilfe einer individuellen präoperativen Risikostratifizierung für das perioperative Blutungs- und Thromboembolierisiko gestellt werden.
The quantum Hall (QH) effect, which can be induced in a two-dimensional (2D) electron gas by an external magnetic field, paved the way for topological concepts in condensed matter physics. While the QH effect can for that reason not exist without Landau levels, there is a plethora of topological phases of matter that can exist even in the absence of a magnetic field. For instance, the quantum spin Hall (QSH), the quantum anomalous Hall (QAH), and the three-dimensional (3D) topological insulator (TI) phase are insulating phases of matter that owe their nontrivial topology to an inverted band structure. The latter results from a strong spin-orbit interaction or, generally, from strong relativistic corrections. The main objective of this thesis is to explore the fate of these preexisting topological states of matter, when they are subjected to an external magnetic field, and analyze their connection to quantum anomalies. In particular, the realization of the parity anomaly in solid state systems is discussed. Furthermore, band structure engineering, i.e., changing the quantum well thickness, the strain, and the material composition, is employed to manipulate and investigate various topological properties of the prototype TI HgTe.
Like the QH phase, the QAH phase exhibits unidirectionally propagating metallic edge channels. But in contrast to the QH phase, it can exist without Landau levels. As such, the QAH phase is a condensed matter analog of the parity anomaly. We demonstrate that this connection facilitates a distinction between QH and QAH states in the presence of a magnetic field. We debunk therefore the widespread belief that these two topological phases of matter cannot be distinguished, since they are both described by a $\mathbb{Z}$ topological invariant. To be more precise, we demonstrate that the QAH topology remains encoded in a peculiar topological quantity, the spectral asymmetry, which quantifies the differences in the number of states between the conduction and valence band. Deriving the effective action of QAH insulators in magnetic fields, we show that the spectral asymmetry is thereby linked to a unique Chern-Simons term which contains the information about the QAH edge states. As a consequence, we reveal that counterpropagating QH and QAH edge states can emerge when a QAH insulator is subjected to an external magnetic field. These helical-like states exhibit exotic properties which make it possible to disentangle QH and QAH phases. Our findings are of particular importance for paramagnetic TIs in which an external magnetic field is required to induce the QAH phase.
A byproduct of the band inversion is the formation of additional extrema in the valence band dispersion at large momenta (the `camelback'). We develop a numerical implementation of the $8 \times 8$ Kane model to investigate signatures of the camelback in (Hg,Mn)Te quantum wells. Varying the quantum well thickness, as well as the Mn-concentration, we show that the class of topologically nontrivial quantum wells can be subdivided into direct gap and indirect gap TIs. In direct gap TIs, we show that, in the bulk $p$-regime, pinning of the chemical potential to the camelback can cause an onset to QH plateaus at exceptionally low magnetic fields (tens of mT). In contrast, in indirect gap TIs, the camelback prevents the observation of QH plateaus in the bulk $p$-regime up to large magnetic fields (a few tesla). These findings allowed us to attribute recent experimental observations in (Hg,Mn)Te quantum wells to the camelback. Although our discussion focuses on (Hg,Mn)Te, our model should likewise apply to other topological materials which exhibit a camelback feature in their valence band dispersion.
Furthermore, we employ the numerical implementation of the $8\times 8$ Kane model to explore the crossover from a 2D QSH to a 3D TI phase in strained HgTe quantum wells. The latter exhibit 2D topological surface states at their interfaces which, as we demonstrate, are very sensitive to the local symmetry of the crystal lattice and electrostatic gating. We determine the classical cyclotron frequency of surface electrons and compare our findings with experiments on strained HgTe.
Zielsetzung: Das Thoraxtrauma beinhaltet Verletzungen des knöchernen Brustkorbs sowie der intrathorakalen Organe. Das operative Vorgehen erfolgt im Vergleich zur konservativen Therapie deutlich seltener, oftmals im Rahmen schwerer intrathorakaler Verletzungen sowie anhaltender respiratorischen Insuffizienz oder einer fortgeschrittenen Thoraxdeformität. Es besteht bis zum heutigen Zeitpunkt keine Einigkeit darüber, welches Patientengut genau von einer operativen Versorgung profitiert.
Methode: Es wurde eine retrospektive monozentrische Kohortenanalyse von Traumapatienten durchgeführt. Einschlusskriterium in diese Analyse war der ct-morphologisch gesicherte Nachweis einer ein- oder beidseitigen Rippenserienfraktur. Es wurden 243 Patienten eingeschlossen, welche konservativ behandelt wurden sowie 34 Patienten mit chirurgischer Rippenstabilisierung mittels Plattenosteosynthese. Es wurden demographische Daten, Verletzungsmuster, Injury Severity Score (ISS), Glasgow Coma Scale (GCS), der stationäre Verlauf sowie das Auftreten von pulmonalen Komplikationen analysiert. Um einen Selection bias in beiden Gruppen zu minimieren wurden 2 Matched-Pair Analysen durchgeführt, stratifiziert nach dem ISS (32 Paare) und dem GCS (25 Paare).
Ergebnisse: Der größte Anteil der konservativen und chirurgischen Patientenkohorte war männlich (74 vs. 76%, p= 0,727) mit einem ähnlichen Durchschnittsalter (55 ± 20 vs. 59 ± 13 Jahren, p= 0,279) und ISS (20 ± 8 vs. 21 ± 9, p= 0,211). Die chirurgische Kohorte zeigte im direkten Vergleich eine durchschnittlich höhere Rate an Rippen - und Claviculafrakturen sowie Zwerchfellrupturen. Die konservative Therapie ergab einen statistischen Vorteil in Bezug auf Gesamtverweildauer (15 ± 11 vs. 23 ± 15 Tagen, p<0,001) und Pneumonierate (4% vs. 12%, p= 0,017). Die Patientenkohorte, welche chirurgisch therapiert wurde, zeigte jedoch einen statistisch signifikant niedrigeren GCS-Wert (12 ± 4 vs. 8 ± 5, p<0,001) im Sinne einer schweren cerebralen Verletzung. Die Matched-Pair Analyse stratifiziert nach dem GCS zeigte gleiche Pneumonieraten, aber einen kürzeren Aufenthalt auf der Intensivstation (9 vs. 15 Tagen, p=0,005) mit kürzerer Beatmungsdauer (305 ± 195 Stunden vs. 143 ± 161 Stunden, p=0,003) sowie niedrigerer Tracheotomie- (64 vs. 24%, p=0,010) und Mortalitätsrate (4 vs. 12%).
Schlussfolgerung: Patienten mit schweren Rippenserienfrakturen und gleichzeitiger cerebraler Schädigung profitieren von einer chirurgischen Stabilisierung durch eine kürzere Beatmungsdauer und Intensivaufenthalt.
Das Nebenschilddrüsenkarzinom ist eine sehr seltene Erkrankung mit einem hohen krankheitsspezifischen Überleben.
Die vorliegende Studie ist mit 83 Patienten die bisher größte multizentrische Studie zu dieser seltenen Tumorerkrankung in Deutschland.
Aufgrund der Seltenheit der Erkrankung finden sich bislang keine prospektiven Studien zum Nebenschilddrüsenkarzinom, sodass sich die bisherigen Handlungs- und Therapieempfehlungen auf retrospektive Studien, Reviews sowie auf Erfahrungen aus Einzelfallberichten beziehen.
Ziel dieser Arbeit war die Evaluation von diagnostischen Mitteln, Krankheitsverlauf und prognostischen Faktoren sowie die Gegenüberstellung der Erfolgsaussichten verschiedener Therapieverfahren des Nebenschilddrüsenkarzinoms.
Diese prospektive Studie befasst sich mit der Prävalenz der unvollständigen Amputation des linken Vorhofohrs (LAA) im Rahmen kardiochirurgischer Eingriffe. Grundlage der Studie bildet die Annahme, dass das linke Vorhofohr als zentrale Struktur hinsichtlich der Bildung kardialer Thromben bei Patienten mit Vorhofflimmern eine führende Rolle bei der Entstehung von zerebrovaskulären Insulten einnimmt und somit nur vollständige Amputationen des linken Vorhofohrs wirklichen Schutz vor systemischen Thromboembolien bieten können. Dazu wurden prä-, peri- und postoperative Daten von insgesamt 108 Patienten erfasst, die sich von Juni 2016 bis März 2017 am Universitätsklinikum Würzburg einer kardiochirurgischen Operation unterzogen haben und dabei eine Amputation des linken Vorhofohrs erhalten haben.
Besondere Aufmerksamkeit galt dabei der transösophagealen Echokardiographie (TEE), mit deren Hilfe intraoperativ und nach Beendigung der extrakorporalen Zirkulation die Größe eines eventuell vorhandenen LAA-Reststumpfes gemessen wurde. Unter Verwendung der von Kanderian et al. angewandten Definition, wonach ein Reststumpf mit einer Länge von mehr als einem Zentimeter einer inkompletten Amputation entspricht, konnte gezeigt werden, dass keine der 97 Resektionen, von denen intraoperative TEE-Bilder vorlagen, unter die Definition einer unvollständigen Amputation fiel: Bei 64 der 97 Probanden war an der früheren Resektionsstelle überhaupt kein messbarer Reststumpf mehr zu erkennen und bei den verbliebenen 33 Probanden lagen jeweils Reststümpfe vor, die allesamt kleiner als ein Zentimeter waren.
Die Schlussfolgerung dieser Studie lautet, dass die LAA-Amputation eine äußerst erfolgreiche Methode zum Verschluss des linken Vorhofohrs darstellt und mit der hier beobachteten 100%-igen Verschlussrate weitaus erfolgreicher ist als sie in der Literatur, u.a. bei Kanderian et al., beschrieben wird. Neben der stellenweise lückenhaften Dokumentation liegen weitere Limitationen der Studie vor, weshalb die Ergebnisse dieser Arbeit kritisch zu betrachten sind. Dennoch legen sie nahe, dass die LAA-Amputation ein wesentlich erfolgreicheres Verfahren zum Verschluss des linken Vorhofohrs darstellt als bisher angenommen.
Abgesehen von Erkenntnissen zur Sicherheit und Durchführbarkeit konnten weder die Left-Atrial-Appendage-Occlusion-Studie I noch die darauf folgende Left-Atrial-Appendage-Occlusion-Studie II Aussagen zum Benefit der LAA-Okklusion, sprich zur Reduktion der Schlaganfallinzidenz, treffen. Auch anhand der vorliegenden Studie kann der Nutzen eines LAA-Verschlusses nur bedingt beurteilt werden. Dies liegt vor allem in der hier geringen Fallzahl von nur 108 Probanden, dem begrenzten Beobachtungszeitraum postoperativ sowie dem Fehlen einer Kontrollgruppe begründet. Finale Daten zur Wirksamkeit des LAA-Verschlusses erhofft man sich von der im Jahr 2012 gestarteten Left-Atrial-Appendage-Occlusion-Studie III. Dabei handelt es sich um eine prospektiv-randomisierte Studie, deren Fallzahl 4700 Patienten betragen soll und die über einen mittleren Beobachtungszeitraum von vier Jahren einen Rückgang der Inzidenz von Schlaganfällen und systemischen Embolien durch Okklusion des linken Vorhofohrs belegen soll. Das voraussichtliche Studienende wird im Jahr 2022 liegen. Die Ergebnisse dieser Arbeit haben das Potenzial, die momentan noch vorhandene Evidenzlücke zum Thema Schlaganfallprävention durch Verschluss des linken Vorhofohrs im Zuge kardiochirurgischer Eingriffe zu schließen.
Ziel der prospektiven, klinischen und monozentrischen Beobachtungsstudie war es, die Eigenschaften der durch die DC/TMD (Diagnostic Criteria for Temporomandibular Disorders) eingeführten neuen Schemata der Schmerzzeichnung für Patienten mit Gesichtsschmerzen zu untersuchen. Der Fokus lag dabei zum einen auf der Reliabilität der Schmerzzeichnung sowie auf der Korrelation mit dem Grad der Schmerzchronifizierung und einer potentiellen psychischen Störung.
218 Patienten mit orofazialen Schmerzen wurden konsekutiv rekrutiert und bearbeiteten einen Fragebogen mit GCPS V.2, PHQ-9 und der Schmerzzeichnung. Eine Untergruppe füllte den Fragebogen nach einer fünfwöchigen Akupunkturtherapie zur Erhebung einer möglichen Veränderung der Schmerzintensität erneut aus. Eine weitere Untergruppe bearbeitete die Fragebögen erneut am selben Tag. Mit einem mehrschrittigen Auswertungsverfahren wurden alle Schmerzzeichnungen ausgewertet.
Die Studienpopulation bestand mit 77,1% aus weiblichen Patienten. Für 44,5% der Kohorte ergab sich eine durch orofaziale Schmerzen bedingte Beeinträchtigung. Die Auswertungsmethoden der Schmerzzeichnung ergaben starke geschlechtsspezifische Unterschiede. Das laterale Kopfschema wies sowohl für Frauen als auch für Männer mit Schmerzbeeinträchtigung signifikant mehr markierte Regionen auf im Vergleich zu Patienten ohne Schmerzbeeinträchtigung. Männer mit dysfunktionalen Schmerzen zeigten zudem eine signifikant höhere prozentual markierte Schmerzoberfläche. Für die männlichen Patienten zeigte sich außerdem für die Anzahl der Regionen und die prozentuale Markierung einen signifikanten Zusammenhang mit einer depressiven Störung. Für Frauen konnten diesbezüglich kein Zusammenhang festgestellt werden und auch der modifizierte Ransford-Score stellte für beide Geschlechter kein valides Screeninginstrument dar, um psychische Beeinträchtigungen zu identifizieren. Die Wiederholungszuverlässigkeit der Schmerzzeichnung war signifikant hoch für das Kopfschema und das intraorale Schema, nicht aber für das Ganzkörperschema.
Insgesamt erwiesen sich die neuen Schemata der Schmerzzeichnung im Rahmen einer CMD Diagnostik als vorteilhaft. Das Geschlecht des Patienten, schmerzbedingte Funktionsstörungen sowie psychische Beeinträchtigungen beeinflussen die durch die Schmerzzeichnung erzielten Ergebnisse unterschiedlich und bestätigen eine vielschichtige Ätiologie der Erkrankung. Die Ergebnisse verweisen zudem auf die Relevanz einer getrennten Betrachtung der Geschlechter in zukünftigen Studien mit orofazialen Schmerzpatienten. Die Summe aller Regionen des Kopfschemas von lateral könnte hinsichtlich der Einschätzung des Ausmaßes einer Schmerzchronifizierung künftig als Auswertungskriterium der Schmerzzeichnung Anwendung finden.
Hintergrund: Bei erwachsenen Patient*innen mit Erkrankungen aus dem Schizophrenie-Spektrum konnte im transkraniellen Ultraschall im Vergleich zu gesunden Proband*innen eine signifikant erhöhte Echogenität der Substantia Nigra (SN) nachgewiesen werden. Zudem bestand ein Zusammenhang zwischen der SN-Fläche und stärker ausgeprägten extrapyramidalmotorischen Bewegungsstörungen unter Antipsychotikatherapie. In der vorliegenden Arbeit wurde überprüft, inwiefern die Echogenität der SN auch bei Jugendlichen und jungen Erwachsenen als Biomarker für Erkrankungen aus dem psychotischen Formenkreis und als Korrelat psychopharmakologischer Nebenwirkungen herangezogen werden kann. Des Weiteren wurde der Einfluss von Alter, Krankheitsdauer sowie Antipsychotika-Lebenszeitdosis auf die SN-Echogenität untersucht sowie Zusammenhänge mit peripheren Eisenparametern.
Methoden: Hierfür wurden insgesamt 16 stationär behandelte Patient*innen zwischen 14 – 22 Jahren mit Erkrankungen aus dem schizophrenen Formenkreis sowie nach Alter und Geschlecht gematchte gesunde Kontrollen mittels TCS untersucht. Aus peripher entnommenem Blut wurden Parameter des Eisenhaushalts bestimmt.
Ergebnisse: Es konnten entgegen der Hypothese keine signifikanten Unterschiede in Bezug auf die Echogenität der SN im Vergleich zur gesunden Kontrollgruppe festgestellt werden. Bezüglich der Schwere der beobachteten EPMS ergab sich entgegen der Hypothese und im Kontrast zu Befunden bei Erwachsenen kein Zusammenhang mit der SN-Echogenität. Das Alter der Proband*innen, die Krankheitsdauer sowie die Dosis der eingenommenen Antipsychotika zeigten keine Zusammenhänge mit der SN-Echogenität. Interessanterweise zeigte sich eine signifikant negative Korrelation zwischen der echogenen Fläche der SN und Eisen sowie Transferrin.
Schlussfolgerung: Im Jugend- und jungen Erwachsenenalter eignet sich die SN-Echogenität vermutlich nicht als Biomarker für Erkrankungen aus dem Schizophrenie-Spektrum oder für die Prädiktion von Nebenwirkungen antipsychotischer Medikation. Möglicherweise manifestiert sich eine erhöhte Echogenität der SN, welche als Zeichen für eine Schädigung der dopaminergen Neurone gesehen wird, bei schizophrenen Psychosen erst im Verlauf der Krankheit. Da wir die Studienteilnehmer*innen nur zu einem einzigen Zeitpunkt im Laufe ihrer Krankheitsgeschichte untersuchten, kann keine Aussage über den weiteren Verlauf der SN-Echogenität getroffen werden. Hierfür wären longitudinale Untersuchungen zielführend, da nur so mögliche entwicklungsbedingte Veränderungen festgestellt werden können.
Platelets are small anucleated cell fragments that originate from megakaryocytes (MKs), which are large cells located in the bone marrow (BM). MKs extend long cytoplasmic protrusions, a process which is called proplatelet formation, into the lumen of the sinusoidal vessels where platelets are sized by the bloodstream. During the process of platelet biogenesis, segments of the MK penetrate the endothelium and, through cytoskeletal remodeling inside the MK, proplatelet fragments are released. Rho GTPases, such as RhoA and RhoB, are critically involved in cytoskeletal rearrangements of both the actin and the tubulin cytoskeleton.
The first part of this thesis concentrated on the protein RhoB and its involvement in cytoskeletal organization in MKs and platelets. Single knockout (KO) mice lacking RhoB had a minor microthrombocytopenia, which means a smaller platelet size and reduced platelet number, accompanied by defects in the microtubule cytoskeleton in both MKs and platelets. In particular, tubulin organization and stability, which is regulated by posttranslational modifications of α-tubulin, were disturbed in RhoB-/- platelets. In contrast, RhoB-/- MKs produced abnormally shaped proplatelets but had unaltered posttranslational modifications of α-tubulin.
The second part focused on the influence of RhoA and RhoB on MK localization and platelet biogenesis in murine BM. Many intact RhoA-/- MKs are able to transmigrate through the endothelial layer and stay attached to the vessel wall, whereas only 1% of wildtype (wt) MKs are detectable in the intrasinusoidal space. Concomitant deficiency of RhoA and RhoB reverts this transmigration and results in macrothrombocytopenia, MK clusters around the vessel in the BM and defective MK development. The underlying mechanism that governs MKs to distinct localizations in the BM is poorly understood, thus this thesis suggests that this process may be dependent on RhoB protein levels, as RhoA deficiency is coincided with increased RhoB levels in MKs and platelets.
The third part of this thesis targeted the protein PDK1, a downstream effector of Rho GTPases, in regard to MK maturation and polarization throughout thrombopoiesis. MK- and platelet-specific KO in mice led to a significant macrothrombocytopenia, impaired actin cytoskeletal reorganization during MK spreading and proplatelet formation, with defective MK maturation. This was associated with decreased PAK activity and, subsequently, phosphorylation of its substrates LIMK and Cofilin. Together, the observations of this thesis highlight the importance of Rho GTPases and their downstream effectors on the regulation of the MK and platelet cytoskeleton.
Derzeit gilt das Vulnerabilitäts-Stressmodell im Sinne eines multifaktoriellen Erklärungsmodells als am besten geeignet, um die Ätiopathogenese der Angsterkrankungen abzubilden. Als Brücke zwischen den genetischen Faktoren und den auf ein Individuum einwirkenden Umweltfaktoren werden epigenetische Mechanismen verstanden. Hierzu zählt die Methylierung bestimmter DNA-Bereiche, welche durch die DNA-Methyltransferasen vermittelt wird. Diese Enzyme waren in Verbindung mit Angsterkrankungen bisher kaum im Fokus psychiatrischer Forschung.
Diese Arbeit beschäftigt sich daher mit ausgewählten Einzelnukleotidpolymorphismen des DNMT3A- und DNMT3B-Gens und untersucht, ob diese SNPs und/oder deren Haplotypen zum einen mit der Panikstörung und zum andern mit dimensionalen psychologischen Charakteristiken, wie angstbezogener Kognition oder Angstsensitivität, assoziiert sind.
Zusammenfassend konnte eine signifikante bzw. nominal signifikante Assoziation der zweier SNPs mit angstbezogenen Charakteristiken wie der angstbezogenen Kognition und der Angstsensitivität gezeigt werden.
Um die gefundenen Assoziationen besser beurteilen zu können, ist in Folgeuntersuchungen eine Replikation in einer weiteren Probandengruppe und in einer angemessen großen Patienten- und Fall-Kontroll-Gruppe mit ausreichender Teststärke erforderlich. Aufgrund der nachgewiesenen Assoziation mit dem PSWQ bietet sich auch die Untersuchung eines anderen Angstphänotypen, der Generalisierten Angststörung, an. Als weiterer Schritt sind Untersuchungen zur Klärung der Funktionalität der signifikant assoziierten SNPs anzustreben. In der Literatur wird zudem eine weitere DNMT, die Dnmt1, mit der Furchtkonditionierung assoziiert und auch die Methylierungsmuster der DNMTs selbst scheinen einen Einfluss auf die Entwicklung von Angststörungen zu haben. Eine Untersuchung des DNMT1-Gens und der Methylierungsmuster der DNMT-Gene sind daher weitere sinnvolle Schritte, um einen möglichen Einfluss von DNMTs auf die Entstehung von Angsterkrankungen und auf angstbezogene psychologische Charakteristiken besser zu verstehen.
Eine suffiziente postoperative Schmerztherapie ist aus ökonomischen und medizinischen Gründen unerlässlich. Am Studienstandort kommt bisher ein diskontinuierliches Schmerzmanagement zum Einsatz, bei dem die Patienten nach operativen Schultereingriffen wiederholt zwei- bis dreimal täglich über einen ISK eine höhere Dosis Ropivacain verabreicht bekommen. Aufgrund der klinikinternen Personal- und Organisationsstruktur kann keine 24stündige Analgesie mittels Lokalanästhetikum sichergestellt werden und die Versorgungslücken müssen durch eine systemische Bedarfsmedikation überbrückt werden. Die Nachteile der bisherigen Vorgehensweise begründen die Einführung einer elastomeren Schmerzpumpe, die eine kontinuierliche und patientenvermittelte Schmerzbehandlung ermöglicht. Die Studie vergleicht in einem Beobachtungszeitraum von max. 72h den Schmerzverlauf, die Häufigkeit von Nebenwirkungen durch das Lokalanästhetikum, die Anzahl der zusätzlich verabreichten Bedarfsanalgetika, die Zufriedenheit und den Kostenaufwand der beiden Analgesieverfahren. Hierzu nehmen je Vergleichsgruppe 25 Patienten an der Untersuchung teil. Hinsichtlich des Schmerzverlaufs kann bei suffizientem Therapieerfolg kein signifikanter Unterschied festgestellt werden. Dasselbe gilt auch für das Auftreten von unerwünschten Arzneimittelwirkungen. Hingegen können Bedarfsanalgetika bei dem Einsatz einer kontinuierlichen und patientenvermittelten Schmerztherapie reduziert werden. Auch die Zufriedenheit mit dem Schmerzmanagement war in dieser Stichprobe größer. Durch die Implementierung der neuen Prozessabfolge kommt es zu einer Reduzierung vieler Prozessschritte. Dennoch lassen sich bisher noch keine Gesamtkosten durch das neue Verfahren senken, wobei durch weitere Routine und evtl. weitere Optimierung der Abläufe ein mögliches zusätzliches Einsparpotenzial besteht. Abschließend wird daher auf Basis der gewonnenen Erkenntnisse empfohlen, dass mit jedem Patienten beide Ansätze besprochen werden und individuell entschieden wird, welche Therapieform für den Patienten am geeignetsten erscheint.
Im Rahmen einer retrospektiven Datenanalyse über einen Zeitraum von 6 Jahren wurde an Hand von 814 operierten Hoden die Koinzidenz eines Maldescensus testis mit einer Morgagni-Hydatide untersucht. Dabei ergab sich eine Hydatidengesamtprävalenz bei erfolgter Hodenhülleneröffnung nicht-deszendierter Hoden von 62,66 %. Zusätzlich konnten wir eine Korrelation zwischen Patientenalter und Größenausprägung der Hydatiden feststellen. Entsprechend der Studienergebnisse kann die Vermutung geäußert werden, dass von einer Größenwachstumsdynamik der Hydatiden – am ehesten unter Hormoneinfluss – in Bezug zum Patientenalter ausgegangen werden kann.
Die akute Appendizitis stellt die häufigste Ursache des akuten Abdomens jenseits des Säuglings- und Kleinkindalters dar. Gerade aufgrund der erschwerten Diagnostik und des häufig foudroyanten Verlaufes bei jüngeren Kindern sind eine frühzeitige Diagnosestellung und adäquate Therapie dieser Erkrankung von unermesslichem Wert.
Diese retrospektive Studie befasst sich mit Kindern und Jugendlichen unter 18 Jahren, die im Zeitraum vom 01.05.2008 bis 31.05.2013 in der Abteilung für Kinderchirurgie des Universitätsklinikums Würzburg appendektomiert und postoperativ betreut wurden. Simultaneingriffe, wie z.B. Appendektomie bei Malrotation, wurden hierbei ausgeschlossen.
Ziel der vorliegenden Dissertation war es unter anderem, das präoperative Management bezüglich der Diagnostik einer Appendizitis darzustellen und zu beurteilen. Hierbei wurde auch die Bedeutung der Leukozytenzahl sowie des C-reaktiven Proteins untersucht. Ein weiterer Fokus lag darauf, die intraoperative Einschätzung des makroskopischen Befundes durch den Operateur dem jeweiligen histopathologischen Befund gegenüberzustellen. Darüber hinaus wurde das Patientengut hinsichtlich des Verteilungsmusters von Alter und Geschlecht beleuchtet und der Frage nachgegangen, ob es einen möglichen Zusammenhang zwischen dem Auftreten einer Appendizitis und der jeweiligen Jahreszeit bzw. Wetterlage gibt. Abschließend lag ein Schwerpunkt der Arbeit darauf, den Stellenwert der laparoskopischen Appendektomie bei Kindern am UKW zu ermitteln und mögliche Vorteile dieses minimalinvasiven Operationsverfahrens gegenüber der konventionellen Appendektomie zu untersuchen. Die Einordnung und Diskussion der Ergebnisse erfolgte anhand der aktuellen Literatur beziehungsweise Studienlage.
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
Bestimmung der Prävalenz medikamentenresistenter HIV-Infektionen bei therapienaiven Patienten in der Viktoriasee-Region in Tansania
Seitdem HIV im Jahr 1983 als Ursache des „acquired immundeficiency syndrome“ (AIDS) isoliert wurde, hat sich viel in der Therapie dieser Infektion getan. Trotzdem handelt es sich um eine Erkrankung, welche bisher nicht geheilt werden kann. Da der weitaus größere Anteil der betroffenen Menschen in strukturschwachen Ländern lebt, ist die größte Herausforderung, eine flächendeckende Therapie weltweit zu etablieren und diese für jeden zugänglich zu machen.
Aufgrund der hohen Mutationsrate des HI-Virus, kommt es zur schnellen Resistenzentwicklung. In strukturschwachen Ländern wie Tansania ist eine Resistenztestung vor Therapiebeginn aktuell aufgrund fehlender Infrastruktur sowie geringer finanzieller Mittel nicht denkbar. Deshalb wird nach WHO-Empfehlung eine standardisierte Dreifachkombination, in der Regel Tenofovir, Lamivudin und Efavirenz, angewendet, ohne vorher eine Resistenztestung vorzunehmen. In regelmäßigen Nachuntersuchungen wird anhand von Viruslast und CD4-Zahl der Erfolg der begonnenen Therapie gemessen und nur bei einem Versagen dieser eine Umstellung vorgenommen.
Bereits im Jahr 2011 wurde von unserer Arbeitsgruppe (Kasang, Kalluvya et al.) nachgewiesen, dass eine deutlich höhere Prävalenz für Primärresistenzen von HI-Viren gegenüber antiretroviraler Therapie bestand, als zuvor angenommen. Betrachtet wurden dabei alle Patienten, welche neu als HIV-positiv getestet wurden und nun therapiert werden sollten. Neu war, dass auch ältere Patienten (>25 Jahre) mit einbezogen wurden. Aufgrund der hohen Prävalenz an Primärresistenzen (19%) nahm man an, dass durch antiretrovirale Therapie entstandene resistente Viren zwischen Partnern direkt übertragen werden können.
In der vorliegenden Arbeit sollte durch die Untersuchung einer größeren Patientengruppe dieser These nachgegangen werden. Untersucht wurde das Plasma von 114 Patienten (> 25 Jahre), welche unmittelbar vor dem Start einer antiretroviralen Therapie standen und bisher therapienaiv waren. Zur Bestimmung von möglicherweise vorliegenden Resistenzen erfolgte im S3-Labor zunächst die Isolierung der Virus-RNA aus dem Plasma. Diese wurde anschließend in DNA umschrieben, amplifiziert, aufgereinigt und sequenziert. Die Sequenzen wurden online durch die „HIV DRUG RESISTANCE DATABASE“ der Stanford University im Hinblick auf den Subtyp der reversen Transkriptase (RT), der Protease sowie auf Resistenzen gegenüber den gängigen aniretroviralen Medikamenten analysiert mit folgenden Ergebnissen:
1. Die Prävalenz für eine Primärresistenz gegenüber antiretroviralen Medikamenten betrug 21,5 %
2. Die Medikamente der Triple-Therapie waren in der untersuchten Gruppe mit einer Prävalenz von 10,53 % betroffen.
3. Diese Ergebnisse sind besorgniserregend und bestätigen die von Kasang, Kalluvya et al. aufgestellte These
Für den weitaus größeren Teil der untersuchten Patienten wäre jedoch die Triple-Therapie ohne kostspielige und aufwendige Resistenztestung ausreichend gewesen. Vorderstes Ziel bleibt somit die finanziellen Ressourcen weiterhin Zugänglichkeit der medikamentösen Behandlung zu nutzen, da dies die beste Methode ist, die Ausbreitung dieser Pandemie einzudämmen. Dennoch werden in den nächsten Jahren weiterhin Untersuchungen mit noch größeren Patientenzahlen nötig sein, um die Wirksamkeit des aktuellen Therapieregimes ständig zu überprüfen und gegebenenfalls eine Anpassung vorzunehmen.
Die chronische Rhinosinusitis (CRS) ist eine entzündliche Erkrankung der Nase und Nasennebenhöhlen mit einem Bestehen von Symptomen über zwölf Wochen im Jahr. In Europa sind über 10% der erwachsenen Bevölkerung von ihr betroffen und leiden unter einer stark verminderten Lebensqualität. Nach dem Phänotyp lassen sich zwei Formen unterscheiden: die chronische Rhinosinusitis mit Polypen (CRScNP) und ohne Polypen (CRSsNP). Meist wird unter europäischen Probanden bei der CRScNP eine hauptsächlich eosinophile Th2- vermittelte und bei der CRSsNP ein gemischtes Profil aus Th1/Th17/Th2-vermittelter Entzündung beschrieben. Doch dies erfasst nicht die Vielfalt dieser Erkrankung. Erst kürzlich konnten Endotypen, basierend auf der Zytokinsekretion, identifiziert werden, die auf ein multifaktorielles Geschehen schließen lassen. Nachdem im Nasensekret von über 90% der CRS Patienten Pilze nachgewiesen werden konnten erscheint es wichtig, deren Rolle in der Pathogenese der CRS zu ergründen. Besonders interessant sind dabei Aspergillus fumigatus und Candida albicans. Als opportunistische Pilze könnten sie im Rahmen der CRS in der Lage sein bei einigen Endotypen durch eine verstärkte Aktivierung von Immunzellen die lokale Entzündungsreaktion aufrecht zu erhalten. Es wurden lokale und periphere CD4+ und CD8+ T-Zellen von Patienten mit CRScNP, CRSsNP und einer gesunden Kontrollgruppe isoliert. Eine Kultivierung mit den Antigenen von C. albicans und A. fumigatus erfolgte in einer Konzentration von 1 µg/ml über 6 Tage. Im Anschluss daran wurden die Zellen für das Durchflusszytometer angefärbt und ihre Aktivität über die Ki67+ Expression gemessen. In den Überständen der Kultivierung wurde durch das Durchflusszytometer mittels Multiplexassay die produzierten Zytokinkonzentrationen der Zellen bestimmt. In dieser Arbeit konnte eine Stimulierung der lokalen und peripheren T-Zellen durch die beiden Antigene gezeigt werden...
Die vorliegende Studie mit insgesamt 73 Patienten untersucht das klinische und funktionelle Outcome nach Implantation einer kreuzbanderhaltenden patientenspezifischen Kniegelenkstotalendoprothese vom Typ Conformis iTotal® CR G2. Es handelt sich um eine monozentrische retrospektive und deskriptive Studie zu klinischen und radiologischen Ergebnissen zwei, drei sowie fünf Jahre postoperativ. Es wurden zu Vergleichszwecken auch präoperative Daten erhoben und ausgewertet. Neben klinischen und radiologischen Untersuchungen wurden durch die Verwendung des „Knee Society Scores“, des „WOMAC Osteoarthritis Index“ und des „SF-12 Health Survey“-Fragebogens die Ergebnisse bezüglich Kniefunktion, Schmerz und Lebensqualität erhoben. Die Untersuchungen für das mittelfristige Outcome erfolgten im Zeitraum zwischen November 2012 und Januar 2017 unter standardisierten Bedingungen.
Insgesamt zeigte sich im Vergleich zum präoperativen Ausgangswert eine statistisch signifikante Verbesserung aller erhobenen Scores sowie eine verbesserte Funktionalität.
Der Vergleich mit anderen veröffentlichten Studien zeigte eine bessere gesamte Implantationsqualität als bei standardisierten Prothesen. Verglichen mit anderen individualisierten Prothesen sind die Ergebnisse ebenfalls etwas besser bzw. zum Teil gleichwertig. Im Gegensatz zu unserer Studie verbesserten sich die Scores bei den meisten Vergleichsstudien nicht signifikant. Im direkten Vergleich mit den einzelnen Punktzahlen der Scores erzielte die Conformis iTotal® CR G2 Prothese in unserer Studie sehr gute, zum Teil deutlich bessere Ergebnisse.
Trotz der sehr guten und vielversprechenden Ergebnisse sollte aufgrund der deutlich aufwendigeren und strahlenbelastenden präoperativen Maßnahmen, die zur Implantation einer solchen Prothese notwendig sind, sowie der teilweise eingeschränkten Aussagekraft dieser Studie weitere Langzeitstudien bezüglich Funktionalität und Haltbarkeit der Conformis iTotal® CR G2 Prothese durchgeführt werden.
Das Herz ist physiologisch auf einen fein regulierten und ausgeglichenen bioenergetischen Energiehaushalt angewiesen, um auf akute Belastungssituationen adäquat reagieren zu können und oxidativen Stress zu vermeiden. Ca2+ reguliert zentral sowohl die zyklischen Kontraktions-/Relaxationsprozesse (ECC) als auch unmittelbar den mitochondrialen Metabolismus. Der ECC liegt in den Kardiomyozyten die Ca2+- Freisetzung durch die RyR2 zu Grunde; die IP3 Rezeptoren des sarkoplasmatischen Retikulums (SR) führen davon unabhängig zu einer Ca2+ Freisetzung aus dem SR. Diese IP3R vermittelten Signale werden in den räumlich nahe gelegenen Mitochondrien zum Teil über den mRyR1 in die mitochondriale Matrix aufgenommen und stimulieren dort langfristig die oxidative Phosphorylierung und den Erhalt der antioxidativen Kapazität. Die enge räumliche Nähe zwischen SR und Mitochondrien wird durch Strukturproteine wie Mitofusin 2 (Mfn2) ergänzt, die das SR mit der äußeren Mitochondrienmembran koppeln und so die Ca2+-Interaktion beeinflussen. Ziel der Arbeit war, den Effekt von Mfn2 Defizienz auf die IP3 induzierte mitochondriale Ca2+-Regulation in Kardiomyozyten zu evaluieren. Dazu erfolgten Fluoreszenzfärbungen an adulten isolierten Ventrikelkardiomyozyten kardiospezifischer Mfn2 Knock-Out (KO) Mäusen bzw. deren wildtypischen Geschwistertieren (WT). Erhobene Parameter umfassten das mitochondriale Ca2+, das mitochondriale Membranpotenzial, die mitochondriale Superoxidbildung und mitochondriale ATP-Gehalt. Die Ergebnisse bestätigten eine Signalachse, bei der die Stimulation von isolierten murinen Kardiomyozyten mit dem IP3 Agonisten ET-1 zu einer mitochondrialen Ca2+ Aufnahme führte, dem Erhalt des mitochondrialen Membranpotenzials diente und der ATP Gehalt stiegt. Bei induzierter kardiospezifischer Ablation von Mfn2 geht diese SR-mitochondriale Interaktion verloren, und es entstand ein energetisches Defizit sowie eine verminderte Superoxidbildung. Bei beta-adrenerger Stimulation mit Isoproterenol (ISO) resultierte in WT zwar eine mitochondriale Ca2+-Aufnahme, allerdings ein Abfall des ATP-Gehaltes. In den Mfn2 defizienten Kardiomyozyten zeigte sich eine Steigerung des ATP-Gehaltes auch auf beta-adrenerge Stimulation, die einen energetischen Kompensationsmechanismus in den Mfn2 KO Tieren vermuten lässt. Dies identifiziert Mfn2 als kritische Strukturkomponente für die basale bioenergetische Adaptation der durch IP3R-mRyR1 vermittelten Signalachse unter physiologischen Bedingungen.
In this thesis, we investigate several topics pertaining to emergent collective quantum phenomena in the domain of correlated fermions, using the quantum Monte Carlo method. They display exotic low temperature phases as well as phase transitions which are beyond the Landau–Ginzburg theory. The interplay between three key points is crucial for us: fermion statistics, many body effects and topology. We highlight the following several achievements: 1. Successful modeling of continuum field theories with lattice Hamiltonians, 2. their sign-problem-free Monte Carlo simulations of these models, 3. and numerical results beyond mean field descriptions. First, we consider a model of Dirac fermions with a spin rotational invariant inter- action term that dynamically generates a quantum spin Hall insulator. Surprisingly, an s-wave superconducting phase emerges due to the condensation of topological de- fects of the spin Hall order parameter. When particle-hole symmetry is present, the phase transition between the topological insulator and the superconducting phase is an example of a deconfined quantum critical point(DQCP). Although its low energy effec- tive field theory is purely bosonic, the exact conservation law of the skyrmion number operator rules out the possibility of realizing this critical point in lattice boson models. This work is published in Ref. [1]. Second, we dope the dynamically generated quantum spin Hall insulator mentioned above. Hence it is described by a field theory without Lorentz invariance due to the lack of particle-hole symmetry. This sheds light on the extremely hot topic of twisted bilayergraphene: Why is superconductivity generated when the repulsive Coulomb interaction is much stronger than the electron-phonon coupling energy scale? In our case, Cooper pairs come from the topological skyrmion defects of the spin current order parameter, which are charged. Remarkably, the nature of the phase transition is highly non-mean-field-like: one is not allowed to simply view pairs of electrons as single bosons in a superfluid-Mott insulator transition, since the spin-current order parameter can not be ignored. Again, due to the aforementioned skyrmions, the two order parameters are intertwined: One phase transition occurs between the two symmetry breaking states. This work is summarized in Ref. [2]. Third, we investigate the 2 + 1 dimensional O(5) nonlinear sigma model with a topological Wess-Zumino-Witten term. Remarkably, we are able to perform Monte Carlo calculations with a UV cutoff given by the Dirac Landau level quantization. It is a successful example of simulating a continuous field theory without lattice regularization which leads to an additional symmetry breaking. The Dirac background and the five anti-commuting Dirac mass terms naturally introduce the picture of a non-trivial Berry phase contribution in the parameter space of the five component order parameter. Using the finite size scaling method given by the flux quantization, we find a stable critical phase in the low stiffness region of the sigma model. This is a candidate ground state of DQCP when the O(5) symmetry breaking terms are irrelevant at the critical point. Again, it has a bosonic low energy field theory which is seemingly unable to be realized in pure boson Hamiltonians. This work is summarized in Ref. [3].
In dieser Arbeit wurde untersucht, ob eine anodale tDCS über der Elektrodenposition AF3 und der Kathode über dem kontralateralen Mastoid Extinktionslernen modulieren kann. Auf Basis aktueller Forschungsergebnisse wurden die Hypothesen aufgestellt, dass im Vergleich von real stimulierter zu sham stimulierter Gruppe ein Unterschied in der Hautleitfähigkeitsrekation, dem Arousalrating und dem Valenzrating der Versuchsteilnehmenden im Vergleich von CS+ und CS- und im zeitlichen Verlauf von Akquisition zu Extinktion gezeigt werden kann. Um dies zu prüfen wurde eine randomisiert doppelt-verblindete Studie mit insgesamt 86 Probanden durchgeführt, von denen nach Überprüfen einer suffizienten Furchtkonditionierungsreaktion nach der Akquisitionsphase noch 46 Teilnehmer eingeschlossen wurden. Diese wurden auf zwei tDCS Gruppen im Sinne von realer Stimulation und sham Stimulation verblindet und zufällig aufgeteilt. Alle Teilnehmer durchliefen ein eintägiges Furchtkonditionierungsparadigma mit drei Phasen: Habituation, Akquisition und Extinktion. Während allen Phasen wurde die Hautleitfähigkeitsreaktion gemessen und die Probanden wurden gebeten die ihnen präsentierten Stimuli hinsichtlich deren Valenz und Arousal einzuschätzen. Die tDCS fand in einer zehnminütigen Pause vor der Extinktion und während destdcs
Extinktionsdurchlaufs statt. In den Ergebnissen zeigt sich kein differenzieller Effekt der tDCS. In den erhobenen Hautleitfähigkeitsdaten zeigt sich in der frühen Extinktionsphase eine verringerte Hautleitfähigkeit in der verum stimulierten tDCS Gruppe unabhängig davon, ob ein CS+ oder ein CS- zu sehen war. Dies deutet auf eine generell verminderte Aufregung bei realer tDCS hin. In den Bewertungen bezüglich Arousal und Valenz findet sich ebenfalls kein Effekt der tDCS. In den Bewertungen zeigt sich jedoch die erfolgreiche Konditionierung und deren Extinktion. Nachfolgend stellt sich die Frage, ob zukünftig Paradigmen mit einem zweitägigen Design bevorzugt werden sollten, da diese realen Bedingungen näherkommen und teilweise auch Effekte der tDCS gezeigt haben. Abschließend lässt sich die große Rolle des vmPFC in der Verarbeitung von aversiven Reizen darstellen und betonen, welch großes Potential in einer Beeinflussung der Aktivität des vmPFC liegt, das zukünftig genauer untersucht werden muss.