Refine
Has Fulltext
- yes (1553) (remove)
Is part of the Bibliography
- yes (1553) (remove)
Year of publication
- 2021 (1553) (remove)
Document Type
- Journal article (929)
- Doctoral Thesis (527)
- Complete part of issue (45)
- Book (12)
- Working Paper (8)
- Other (7)
- Conference Proceeding (5)
- Master Thesis (5)
- Book article / Book chapter (4)
- Preprint (4)
Language
- English (1139)
- German (410)
- Spanish (3)
- Multiple languages (1)
Keywords
- Wuerzburg (46)
- Wurzburg (45)
- Würzburg (45)
- University (44)
- Universität (44)
- COVID-19 (20)
- inflammation (17)
- boron (13)
- virtual reality (13)
- SARS-CoV-2 (11)
Institute
- Theodor-Boveri-Institut für Biowissenschaften (175)
- Graduate School of Life Sciences (124)
- Institut für Anorganische Chemie (73)
- Medizinische Klinik und Poliklinik I (71)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (61)
- Medizinische Klinik und Poliklinik II (60)
- Institut für Psychologie (56)
- Neurologische Klinik und Poliklinik (51)
- Institut für Organische Chemie (48)
- Institut für Informatik (46)
Schriftenreihe
Sonstige beteiligte Institutionen
- DFG Forschungsgruppe 2757 / Lokale Selbstregelungen im Kontext schwacher Staatlichkeit in Antike und Moderne (LoSAM) (2)
- Klinikum Fulda (2)
- Ökologische Station Fabrikschleichach (2)
- Airbus Defence and Space GmbH (1)
- Akademie der Wissenschaften und der Literatur, Mainz (1)
- Apotheke, Universitätsklinikum Würzburg (1)
- Biomedical Center Munich, Department of Physiological Chemistry, Ludwig-Maximilians-Universität München (1)
- Bundeswehr Institute of Radiobiology affiliated to the University of Ulm, Munich, Germany (1)
- Clinical Trial Center (CTC) / Zentrale für Klinische Studien Würzburg (ZKSW) (1)
- Cologne Game Lab (1)
Bei der Autoimmunerkrankung Pemphigus vulgaris führen Antikörper zur charakteristischen suprabasalen Akantholyse und Blasenbildung der Epidermis, indem sie an spezifische Antigene, Dsg3 (Desmoglein 3) und Dsg1 (Desmoglein 1), auf der Zelloberfläche der Keratinozyten binden. Die Art und Weise, wie die multiplen zellulären Pathomechanismen zusammenwirken und das potenziell tödliche Krankheitsbild hervorrufen, ist jedoch bislang noch weitgehend unklar. In der vorliegenden Arbeit wurden entscheidende, durch die Autoantikörper hervorgerufene, pathologische intrazelluläre Prozesse genauer untersucht und deren Stellenwert beleuchtet.
Constraining graph layouts - that is, restricting the placement of vertices and the routing of edges to obey certain constraints - is common practice in graph drawing.
In this book, we discuss algorithmic results on two different restriction types:
placing vertices on the outer face and on the integer grid.
For the first type, we look into the outer k-planar and outer k-quasi-planar graphs, as well as giving a linear-time algorithm to recognize full and closed outer k-planar graphs Monadic Second-order Logic.
For the second type, we consider the problem of transferring a given planar drawing onto the integer grid while perserving the original drawings topology;
we also generalize a variant of Cauchy's rigidity theorem for orthogonal polyhedra of genus 0 to those of arbitrary genus.
G-protein-coupled receptors (GPCRs) regulate diverse physiological processes in the human body and represent prime targets in modern drug discovery. Engagement of different ligands to these membrane-embedded proteins evokes distinct receptor conformational rearrangements that facilitate subsequent receptor-mediated signalling and, ultimately, enable cellular adaptation to altered environmental conditions. Since the early 2000s, the technology of resonance energy transfer (RET) has been exploited to assess these conformational receptor dynamics in living cells and real time. However, to date, these conformational GPCR studies are restricted to single-cell microscopic setups, slowing down the discovery of novel GPCR-directed therapeutics. In this work, we present the development of a novel generalizable high-throughput compatible assay for the direct measurement of GPCR activation and deactivation. By screening a variety of energy partners for fluorescence (FRET) and bioluminescence resonance energy transfer (BRET), we identified a highly sensitive design for an α2A-adrenergic receptor conformational biosensor. This biosensor reports the receptor’s conformational change upon ligand binding in a 96-well plate reader format with the highest signal amplitude obtained so far. We demonstrate the capacity of this sensor prototype to faithfully quantify efficacy and potency of GPCR ligands in intact cells and real time. Furthermore, we confirm its universal applicability by cloning and validating five further equivalent GPCR biosensors. To prove the suitability of this new GPCR assay for screening purposes, we measured the well-accepted Z-factor as a parameter for the assay quality. All tested biosensors show excellent Z-factors indicating outstanding assay quality. Furthermore, we demonstrate that this assay provides excellent throughput and presents low rates of erroneous hit identification (false positives and false negatives). Following this phase of assay development, we utilized these biosensors to understand the mechanism and consequences of the postulated modulation of parathyroid hormone receptor 1 (PTHR1) through receptor activity-modifying protein 2 (RAMP2). We found that RAMP2 desensitizes PTHR1, but not the β2-adrenergic receptor (β2AR), for agonist-induced structural changes. This generalizable sensor design offers the first possibility to upscale conformational GPCR studies, which represents the most direct and unbiased approach to monitor receptor activation and deactivation. Therefore, this novel technology provides substantial advantages over currently established methods for GPCR ligand screening. We feel confident that this technology will aid the discovery of novel types of GPCR ligands, help to identify the endogenous ligands of so-called orphan GPCRs and deepen our understanding of the physiological regulation of GPCR function.
Nach Stimulierung mit einem IP3-Rezeptor Agonisten wird die mitochondriale Ca2+-Aufnahme stimuliert. Wenn diese mitochondriale Ca2+-Aufnahme durch Dantrolen oder Ru360 blockiert wird, dann steigt nachfolgend das zytosolische [Ca2+] an. Nach Blockierung des mRyR durch Dantrolen steigt zusätzlich durch die Beeinflussung der passiven Komponente des nukleären Ca2+-Transienten das nukleäre [Ca2+] an. Dieses erhöhte nukleäre [Ca2+] hat letztlich eine Hypertrophie zur Folge. Somit können Mitochondrien, die in ihrer Funktion gestört sind, zur Entwicklung der Hypertrophie beitragen.
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses.
To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error.
Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon.
To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized:
Contribution I - Forecasting Benchmark
To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope.
Contribution II - Telescope
To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively.
Contribution III - Chamulteon
To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%.
The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result.
Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience.
In der vorliegenden klinischen retrospektiven Studie wurden 147 Goldteilkronen und 149 Keramikteilkronen an 296 Patienten nachuntersucht. Der Beobachtungszeitraum umfasste 9-25 Jahre nach Insertion (M = 14,28, SD = 3,59).
Die systematische Bewertung der Restaurationsqualität beruhte auf modifizierten USPHS-Kriterien, klinischen Parametern sowie einer röntgenologischen Beurteilung anhand eines Zahnfilms.
Die Goldteilkronen waren zu 68% (n = 100), Keramikteilkronen zu 75,2% (n = 112) in einem exzellenten bis akzeptablen Zustand. Eine Reparatur unter Erhalt der Restauration war bei 25,9% (n = 38) der Gold- und 20,8% (n = 31) der Keramikrestaurationen notwendig. Goldrestaurationen konnten in 6,1% der Fälle (n = 9) nicht erhalten werden, Keramikrestaurationen in 4% der Fälle (n = 6).
Die Qualität der Keramikrestaurationen war hinsichtlich der Kriterien Randverfärbung, Oberflächendefekte/Retention, Randqualität und Karies niedriger als die der hochgold-haltigen Restaurationen. Die Gesamtqualität wies keine signifikanten Unterschiede zwischen den Restaurationsgruppen auf. Vorhandene Plaqueakkumulation, erhöhtes Kariesrisiko und steigendes Patientenalter wirkten sich qualitätsmindernd auf die indirekten Restaurationen aus.
Gold- und Keramikteilkronen wiesen zufriedenstellende klinische Ergebnisse auf und können gleichermaßen als langfristige, hochqualitative Versorgung für ausgedehnte Defekte im Seitenzahnbereich angesehen werden.
Ziel der prospektiven, klinischen und multizentrischen Kohortenstudie war die Untersuchung des Einflusses demographischer (Alter, SÖS), psychologischer (KIDSCREEN-10, RSES, SDQ) und kieferorthopädischer Parameter auf die Mundgesundheitsbezogene Lebensqualität (COHIP-G19) von Kindern und Jugendlichen. Hierzu wurden 250 kieferorthopädische Patienten akquiriert. Die Ergebnisse zeigten signifikante Zusammenhänge zwischen der Mundgesundheitsbezogenen Lebensqualität und: (1) dem Alter, (2) der gesundheitsbezogenen Lebensqualität, (3) dem Selbstwertgefühl, (4) Verhaltensauffälligkeiten, (5) dem objektiven kieferorthopädischen Behandlungsbedarf, (6) spezifischen kieferorthopädischen Befunden.
Rezeptor-vermittelte Chemotherapie von ovarialen Karzinomzellen mit Disorazol-GnRH-Konjugaten
(2021)
Das Ovarialkarzinom stellt einen häufigen maligen Tumor der Frau dar, der meist spät diagnostiziert wird. Therapeutische Optionen sind nur eingeschränkt verfügbar und nebenwirkungsbehaftet. In der modernen Tumortherapie sind zielgerichtete medikamentöse Ansätze von immer größer Bedeutung und sind bei verschiedenen Entitäten bereits zugelassen. Da Ovarialkarzinome häufig GnRH-Rezeptoren exprimieren, stellt dies einen guten Angriffspunkt für mögliche Therapeutika dar.
In dieser Arbeit wurde die Wirkung von Disorazol, einem potenten Zytotoxin, in Kopplung an GnRH auf Ovarialkarzinom-Zellen untersucht. Unter anderem wurden hierbei RT-PCR, Kristallviolettversuche, WST-Versuche und FACS-Analysen durchgeführt.
Molekularbiologisch war eine deutliche Expression von GnRH-Rezeptoren auf ovarialen Karzinomzellen zu sehen. Es zeigte sich eine spezifische Toxizität von GnRH-Disorazol-Konjugaten auf Ovarialkarzinom-Zelllinien und andere GnRH-tragende Zellen. Lymphozyten aus dem peripheren Blut waren nicht im besonderen Maße anfällig für Disorazol. Verapamil konnte in einzelnen Zelllinien die Toxizität des Konjugats verstärken, eine Cisplatin-Resistenz hatte jedoch keinen Einfluss darauf. Apoptose-inhibierende Substanzen wie zVAD verminderten den Anteil an toten Zellen, Necrostatin war dazu nicht in der Lage.
Die spezifische Wirksamkeit von GnrH gekoppeltem Disorazol auf Ovarialkarzinomzellen bestätigt das ursprüngliche Therapiekonzept. Eine ausgeprägtere Hämatotoxizität konnte nicht nachgewiesen werden, was im Hinblick auf den klinischen Einsatz eine bedeutende Rolle spielt. Da einige weitere Entitäten wie das triple-negative Mamma-Karzinom GnRH-Rezeptor-exprimierende Zellen aufweisen, ist ein Einsatz auch in diesen Krankheitsbildern denkbar.
Fluorescence microscopy is a form of light microscopy that has developed during the 20th century and is nowadays a standard tool in Molecular and Cell biology for studying the structure and function of biological molecules. High-resolution fluorescence microscopy techniques, such as dSTORM (direct Stochastic Optical Reconstruction Microscopy) allow the visualization of cellular structures at the nanometre scale (10−9 m). This has already made it possible to decipher the composition and function of various biopolymers, such as proteins, lipids and nucleic acids, up to the three-dimensional (3D) structure of entire organelles. In practice, however, it has been shown that these imaging methods and their further developments still face great challenges in order to achieve an effective resolution below ∼ 10 nm. This is mainly due to the nature of labelling biomolecules. For the detection of molecular structures, immunostaining is often performed as a standard method. Antibodies to which fluorescent molecules are coupled, recognize and bind specifcally and with high affnity to the molecular section of the target structure, also called epitope or antigen. The fluorescent molecules serve as reporter molecules which are imaged with the use of a fluorescence microscope. However, the size of these labels with a length of about 10-15 nm in the case of immunoglobulin G (IgG) antibodies, cause a detection of the fluorescent molecules shifted to the real position of the studied antigen. In dense regions where epitopes are located close to each other, steric hindrance between antibodies can also occur and leads to an insuffcient label density. Together with the shifted detection of fluorescent molecules, these factors can limit the achievable resolution of a microscopy technique. Expansion microscopy (ExM) is a recently developed technique that achieves a resolution improvement by physical expansion of an investigated object. Therefore, biological samples such as cultured cells, tissue sections, whole organs or isolated organelles are chemically anchored into a swellable polymer. By absorbing water, this so-called superabsorber increases its own volume and pulls the covalently bound biomolecules isotropically apart. Routinely, this method achieves a magnifcation of the sample by about four times its volume. But protocol variants have already been developed that result in higher expansion factors of up to 50-fold. Since the ExM technique includes in the frst instance only the sample treatment for anchoring and magnifcation of the sample, it can be combined with various standard methods of fluorescence microscopy. In theory, the resolution of the used imaging technique improves linearly with the expansion factor of the ExM treated sample. However, an insuffcient label density and the size of the antibodies can here again impair the effective achievable resolution. The combination of ExM with high-resolution fluorescence microscopy methods represents a promising strategy to increase the resolution of light microscopy. In this thesis, I will present several ExM variants I developed which show the combination of ExM with confocal microscopy, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) and dSTORM. I optimized existing ExM protocols and developed different expansion strategies, which allow the combination with the respective imaging technique. Thereby, I gained new structural insights of isolated centrioles from the green algae Chlamydomonas reinhardtii by combining ExM with STED and confocal microscopy. In another project, I combined 3D-SIM imaging with ExM and investigated the molecular structure of the so-called synaptonemal complex. This structure is formed during meiosis in eukaryotic cells and contributes to the exchange of genetic material between homologous chromosomes. Especially in combination with dSTORM, the ExM method showed its high potential to overcome the limitations of modern fluorescence microscopy techniques. In this project, I expanded microtubules in mammalian cells, a polymer of the cytoskeleton as well as isolated centrioles from C. reinhardtii. By labelling after expansion of the samples, I was able to signifcantly reduce the linkage error of the label and achieve an improved label density. In future, these advantages together with the single molecule sensitivity and high resolution obtained by the dSTORM method could pave the way for achieving molecular resolution in fluorescence microscopy
Strahlentherapie des Zervixkarzinoms untergliedert sich in die Teletherapie von extrakorporal und die Brachytherapie von intrauterin und intravaginal. Während in Bezug auf die Teletherapie international standardisierte Therapieschemata bestehen, fehlen diese bei der Brachytherapie. In Würzburg wurde ein Therapieregime von 3x8,5 Gy gewählt, während in anderen Therapierzentren mit z.B. 4x7 Gy oder 5x6 Gy bestrahlt wurde. Somit wurden in Würzburg deutlich höheren Einzeldosen appliziert.
Ziel der Arbeit war es, das in Würzburg angewandte Fraktionierungsschema auf Verträglichkeit und Effektivität zu überprüfen. In die Studie eingeschlossen wurden 74 Patientinnen, die zwischen Februar 1999 und September 2014 bei gesichertem Zervixkarzinom einer primären Radiochemotherapie unterzogen wurden. In einem medianen Follow-Up von 48 Monaten wurden Nebenwirkungen an Blase und Rektum sowie lokale und regionäre Rezidive und Fernmetastasen erhoben.
Bei neun Patientinnen (12,2%) wurde am Rektum eine Spätnebenwirkung vom Grad III oder IV nach CTCAE festgestellt, an der Blase wurde dies bei drei Patientinnen (4,8%) gefunden. Bei zwei (2,7%) Patientinnen fand sich ein lokaler, bei drei Patientinnen (4%) ein regionärer Progress. 19 Patientinnen (25,66%) entwickelten Fernmetastasen.
Es zeigte sich zusammenfassend, dass es im Rahmen des angewandten Therapieschemas zu einer im internationalen Vergleich sehr guten lokalen Kontrolle kam bei vor allem am Rektum leicht erhöhten höhergradigen Nebenwirkungsraten. Mittels moderner bildgestützter IMRT- und Brachytherapie-Planung werden sich diese Toxizitäten in Zukunft weiter reduzieren lassen.
Die Stammzellforschung beschäftigt sich bereits seit Jahren mit der Frage, wie Gewebe oder sogar Organe im Labor hergestellt werden können. Als besonders vielversprechend erscheinen hierfür humane Mesenchymale Stammzellen (hMSC), da diese in vielen Fällen direkt vom Empfänger gewonnen werden können und so keine Organ- oder Gewebeabstoßung durch Abwehrreaktionen zu erwarten ist. Für die weitere Erforschung des Verhaltens von Stammzellen in vivo ist es notwendig, diese nicht-invasiv darstellen zu können. Dies ist zum Beispiel mittels Magnetischer Partikel Bildgebung (MPI) möglich. Hierfür müssen die Stammzellen mit einer geeigneten Substanz markiert werden. Eine solche sind beispielsweise superparamagnetische Eisenoxidnanopartikel (SPION). Derzeit gibt es keine von den medizinischen Zulassungsbehörden zugelassenen SPION die ohne TA in hMSC aufgenommen werden. In der hier vorliegenden Arbeit sollte also im Rahmen des
EU-weiten „IDEA-Projekts“ ein geeigneter SPION identifiziert werden, der eine optimale Zell-Partikel-Interaktion aufweist und sowohl mittels MPI als auch mit Raman-Spektroskopie nachweisbar ist. Zudem sollte die Nachweisbarkeit des SPION über einen längeren Zeitraum gegeben und kein Einfluss auf die hMSC feststellbar sein. Es wurden hMSC mit den Eisenoxidnanopartikeln M4E, M4F, M4F2 und M3A-PDL in unterschiedlichen Konzentrationen markiert. Für M3A-PDL und M4E erfolgten bei einer Konzentration von 0,5 mg/ml Untersuchungen in Zellkultur sowie auf SIS-ser als Matrix im 3D-Modell. Desweiteren wurde das Differenzierungsverhalten der mit M4E markierten hMSC bei chondrogener Differenzierung untersucht. Außerdem kamen Magnetische Partikel Spektroskopie (MPS) und Raman-Spektroskopie als nicht-invasive Nachweisverfahren zum Einsatz. Der SPION-Nachweis erfolgte histologisch mittels Berliner Blau Färbung. Untersuchungen zu Zellviabilität und Proliferation erfolgten durch Trypanblau sowie Ki67-Antikörper-Färbung. Um Nachzuweisen ob auch markierte Zellen proliferieren wurde eigens ein kombiniertes Färbeprotokoll zur Kombination von Berliner Blau und immunhistochemischer Färbung
etabliert. Der Erfolg der chrondrogenen Differenzierung wurde mittels Alcianblau, Aggrecan- und Kollagen-II-Antikörper Färbung überprüft. Es konnte gezeigt werden, dass M4E bei der Markierung von hMSC eine sehr gute Zell-Partikel-Interaktion aufweist und im Gegensatz zu M3A auch ohne TA in die Zellen aufgenommen wird. Durch beide Partikel werden Zellviabilität und Proliferation nicht beeinflusst. M4F sowie M4F2 ist zur Markierung nicht geeignet. Die Markierung ließ sich im 3D-Modell mit vier Wochen deutlich länger nachweisen als in 2D Zellkultur mit maximal zwei Wochen. Die chondrogene Differenzierung wird durch die Markierung mit 0,5 mg/ml M4E beeinflusst. M3A-PDL sind durch MPS nachweisbar. Die Raman-Spektroskopie eignet sich zur Differenzierung zwischen mit M3A-PDL markierten und unmarkierten hMSC. Es ist im Rahmen dieser Arbeit gelungen, einen
Eisenoxidnanopartikel mit hervorragender Zell-Partikel-Interaktion zu identifizieren, der ohne zusätzliches TA eine intensive Markierung der hMSC ermöglicht und mit MPS nachweisbar ist. Für M4E konnte in weiteren Arbeiten am Institut bereits gezeigt werden, dass auch eine Differenzierung zwischen markierten und unmarkierten Zellen mittels Raman-Spektroskopie möglich ist. Die chondrogene Differenzierung der hMSC wurde in der vorliegenden Arbeit allerdings beeinträchtigt. In der Literatur finden sich Hinweise auf eine dosisabhängige Inhibition der Differenzierung. Es sind daher weitere Versuche notwendig, um herauszufinden, ob die Inhibition der Differenzierung möglicherweise bei geringerer SPION-Konzentration weniger ausgeprägt ist. Zudem sollte untersucht werden, ob auch geringere Konzentrationen in den Zellen über mehrere Wochen mittels MPS nachweisbar bleiben. Desweiteren sollten Untersuchungen in, der in vivo Situation ähnlicheren,
Systemen, wie dem dynamischen Umfeld einer BioVaSc-TERM® durchgeführt werden um bessere Vorhersagen zum Verhalten markierter hMSC in vivo treffen zu können.
E-Mails, Online Banking und Videokonferenzen sind aus unserem heutigen Alltag nicht mehr wegzudenken. Bei all diesen Aktivitäten werden zahlreiche personenbezogene Informationen und vertrauenswürdige Daten digital übertragen und gespeichert. Zur Sicherstellung der digitalen Daten vor unbefugten Zugriffen und Manipulationen existieren verschiedenste Konzepte, Methoden und Verfahren, die sich unter dem Begriff IT-Sicherheit zusammenfassen lassen. Klassische Sicherheitslösungen aus dem Bereich IT-Sicherheit sind Firewalls und Virenscanner. Derartige Ansätze sind meist regelbasiert und prüfen Dateien beziehungsweise eingehenden Netzwerkverkehr anhand einer Liste bekannter Angriffssignaturen. Folglich können diese Systeme nur bereits bekannte Angriffsszenarien detektieren und bieten keinen Schutz vor neuartigen Angriffen. Somit entsteht im Bereich IT-Sicherheit ein Wettlauf zwischen Hackern und IT-Sicherheitsexperten, bei dem die Hacker stets nach neuen Mitteln und Wegen suchen, die existierenden Sicherheitslösungen zu überwinden, während IT-Sicherheitsexperten stetig ihre Schutzmechanismen verbessern.
Die vorliegende Arbeit widmet sich der Detektion von Angriffsszenarien in Unternehmensnetzwerken mithilfe von Data Mining-Methoden. Diese Methoden sind in der Lage anhand von repräsentativen Daten die darin enthaltenen Strukturen zu erlernen und zu generalisieren. Folglich können sich Data Mining-Methoden grundsätzlich zur Detektion neuer Angriffsszenarien eignen, wenn diese Angriffsszenarien Überschneidungen mit bekannten Angriffsszenarien aufweisen oder sich wesentlich vom bekannten Normalverhalten unterscheiden. In dieser Arbeit werden netzwerkbasierte Daten im NetFlow Format analysiert, da diese einen aggregierten Überblick über das Geschehen im Netzwerk bieten. Häufig können Netzwerkdaten aufgrund datenschutzrechtlicher Bedenken nicht veröffentlicht werden, was für die Erzeugung synthetischer, aber realistischer Netzwerkdaten spricht. Des Weiteren führt die Beschaffenheit der Netzwerkdaten dazu, dass eine Kombination von kontinuierlichen und kategorischen Attributen analysiert werden muss, was vor allem das Vergleichen der Daten bezüglich ihrer Ähnlichkeit erschwert.
Diese Arbeit liefert methodische Beiträge zu jeder der drei genannten Herausforderungen. Im Bereich der Abstandsberechnung kategorischer Werte werden mit ConDist und IP2Vec zwei unterschiedliche Ansätze entwickelt. ConDist ist ein universell einsetzbares Abstandsmaß zur Berechnung von Abständen zwischen Datenpunkten, die aus kontinuierlichen und kategorischen Attributen bestehen. IP2Vec ist auf Netzwerkdaten spezialisiert und transformiert kategorische Werte in kontinuierliche Vektoren.
Im Bereich der Generierung realistischer Netzwerkdaten werden neben einer ausführlichen Literaturrecherche zwei unterschiedliche Ansätze vorgestellt. Zunächst wird ein auf Simulation basierter Ansatz zur Generierung flowbasierter Datensätze entwickelt. Dieser Ansatz basiert auf einer Testumgebung und simuliert typische Benutzeraktivitäten durch automatisierte Python Skripte. Parallel hierzu wird ein zweiter Ansatz zur synthetischen Generierung flowbasierter Netzwerkdaten durch Modellierung mithilfe von Generative Adversarial Networks entwickelt. Dieser Ansatz erlernt die zugrundeliegenden Eigenschaften der Netzwerkdaten und ist anschließend in der Lage, neue Netzwerkdaten mit gleichen Eigenschaften zu generieren.Während sich der erste Ansatz zur Erstellung neuer Datensätze eignet, kann der zweite Ansatz zur Anreicherung existierender Datensätze genutzt werden.
Schließlich liefert diese Arbeit noch zwei Beiträge zur Detektion von Angriffsszenarien. Im ersten Beitrag wird ein Konzept zur Detektion von Angriffsszenarien entwickelt, welches sich an die typischen Phasen eines Angriffsszenarios orientiert. Im zweiten Beitrag werden eine überwachte und eine unüberwachte Methode zur Detektion von langsamen Port Scans vorgestellt.
High-resolution nuclear magnetic resonance (NMR) spectroscopy is used in structure elucidation and qualitative as well as quantitative examination of product components. Despite the worldwide development of numerous innovative NMR spectroscopic methods, several official methods that analyze specific substances and do not represent a holistic analysis, are still in use for the quality control of drugs, food and chemicals. Thus, counterfeit or contaminated products of inferior quality can be brought onto the market and distributed despite previous quality controls. To prevent this, three NMR spectroscopic methods have been developed within the scope of this work (1) to study the peroxide value in vegetable and animal oils, (2) for the qualitative and quantitative analysis of metal cations and (3) to determine the enantiomeric excess in chiral alcohols. In oil analysis, titration methods are used to determine the bulk quality parameters such as peroxide value, which represents the concentration of peroxides. Titrations show several drawbacks, such as the need of a large amount of sample and solvents, cross reactions and the low robustness. Thus, an alternative NMR spectroscopic method was developed to improve the peroxide analysis by using triphenylphosphine as a derivatization reagent, which reacts with peroxides in a stoichiometric ratio of 1:1 forming triphenylphosphine oxide. In the 1H-31P decoupled NMR spectrum, the signals of the unreacted triphenylphosphine and the reacted triphenylphosphine oxide are detected at 7.4 ppm and 7.8 ppm, respectively. The ratio of the two signals is used for the calculation of the peroxide concentration. 108 oil samples with a peroxide value between 1 meq/kg and 150 meq/kg were examined using the developed method. Oils with a very low peroxide value of less than 3 meq/kg showed a relative standard deviation of 4.9%, highly oxidized oils with a peroxide value of 150 meq/kg of 0.2%. The NMR method was demonstrated as a powerful technique for the analysis of vegetable and krill oils. Another 1H NMR spectroscopic method was developed for the qualitative determination of Be2+, Sr2+ and Cd2+, and for the qualitative and quantitative determination of Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ by using ethylenediamine tetraacetate (EDTA) as complexing agent. EDTA is a hexadentate ligand that forms stable chelate complexes with divalent cations. The known amount of added EDTA and the signal ratio of free and complexed EDTA are used to calculate the concentrations of the divalent cations, which makes the use of an internal standard obsolete. The use of EDTA with Be2+, Sr2+, Cd2+, Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ result in complexes whose signals are pH-independent, showing cation-specific chemical shifts and couplings in the 1H NMR spectrum that are used for identification and quantification. In the presented NMR method, the limit of quantification of the cations Ca2+, Mg2+, Hg2+, Sn2+, Pb2+, and Zn2+ was determined with 5-22 μg/mL. This method is applicable in the food and drug sectors. The third NMR spectroscopic method introduced an alternative determination of the enantiomer excess (ee) of the chiral alcohols menthol, borneol, 1-phenylethanol and linalool using phosgene as a derivatizing reagent. Phosgene reacts with a chiral alcohol to form carboxylic acid diesters, made of two identical (RR, SS) or two different enantiomers (RS, SR). These two different types of diastereomers can be examined by the difference of their chemical shifts. In the presented method, the integration values of the carbonyl signals in the 13C NMR spectrum are used for the determination of the enantiomer excess. The limit of quantification depends, among others, on the sample and on the non-labelled or 13C-labelled phosgene used for the analysis. In the case of menthol, a quantification limit of ee=99.1% was determined using non-labelled phosgene and ee=99.9% using 13C-labelled phosgene. The 13C NMR method was also applied for the quality control of the enantiomeric purity of borneol, 1-phenylethanol and linalool. The developed 13C NMR method represents a powerful alternative to Mosher’s reagent for investigating the enantiomeric excess in chiral alcohols. This work demonstrates the variety of possibilities of applications for the quantitative nuclear magnetic resonance spectroscopy in the chemical analysis of drugs, food and chemicals using tagging reactions such as derivatizations and complexations. The nuclear resonance spectroscopic methods developed in this research work represent powerful alternatives to the previously used quality control techniques.
Cognitive control is what makes goal-directed actions possible. Whenever the environment or our impulses strongly suggests a response that is incompatible with our goals, conflict arises. Such conflicts are believed to cause negative affect. Aversive consequences of conflict may be registered in a conflict monitoring module, which subsequently initiates attentional changes and action tendencies to reduce negative affect. This association suggests that behavioral adaptation might be a reflection of emotion regulation. The theoretical cornerstone of current research on emotion regulation is the process model of emotion regulation, which postulates the regulation strategies situation selection, situation modification, attentional deployment, cognitive change, and response modulation. Under the assumption that conflict adaptation and affect regulation share common mechanisms, I derived several predictions regarding cognitive control from the process model of emotion regulation and tested them in 11 experiments (N = 509). Participants engaged in situation selection towards conflict, but only when they were explicitly pointed to action-outcome contingencies (Experiments 1 to 3). I found support for a mechanism resembling situation modification, but no evidence for a role of affect (Experiments 4 to 10). Changing the evaluation of conflict had no impact on the extent of conflict adaptation (Experiment 11). Overall, there was evidence for an explicit aversiveness of cognitive conflict, but less evidence for implicit aversiveness, suggesting that conflict may trigger affect regulation processes, particularly when people explicitly have affect regulation goals in mind.
The family of trypanosomatid parasites, including the human pathogens Trypanosoma brucei and Leishmania, has evolved sophisticated strategies to survive in harmful host environments. While Leishmania generate a safe niche inside the host’s macrophages, Trypanosoma brucei lives extracellularly in the mammalian bloodstream, where it is constantly exposed to the attack of the immune system. Trypanosoma brucei ensures its survival by periodically changing its protective surface coat in a process known as antigenic variation. The surface coat is composed of one species of ‘variant surface glycoprotein’ (VSG). Even though the genome possesses a large repertoire of different VSG isoforms, only one is ever expressed at a time from one out of the 15 specialized subtelomeric ‘expression sites’ (ES). Switching the coat can be accomplished either by a recombination-based exchange of the actively-expressed VSG with a silent VSG, or by a transcriptional switch to a previously silent ES.
The conserved histone methyltransferase DOT1B methylates histone H3 on lysine 76 and is involved in ES regulation in T. brucei. DOT1B ensures accurate transcriptional silencing of the inactive ES VSGs and influences the kinetics of a transcriptional switch. The molecular machinery that enables DOT1B to execute these regulatory functions at the ES is still elusive, however. To learn more about DOT1B-mediated regulatory processes, I wanted to identify DOT1B-associated proteins.
Using two complementary approaches, specifically affinity purification and proximity-dependent biotin identification (BioID), I identified several novel DOT1B-interacting candidates. To validate these data, I carried out reciprocal co-immunoprecipitations with the most promising candidates. An interaction of DOT1B with the Ribonuclease H2 protein complex, which has never been described before in any other organism, was confirmed. Trypanosomal Ribonuclease H2 maintains genome integrity by resolving RNA-DNA hybrids, structures that if not properly processed might initiate antigenic variation. I then investigated DOT1B’s contribution to this novel route to antigenic variation. Remarkably, DOT1B depletion caused an increased RNA-DNA hybrid abundance, accumulation of DNA damage, and increased VSG switching. Deregulation of VSGs from throughout the silent repertoire was observed, indicating that recombination-based switching events occurred. Encouragingly, the pattern of deregulated VSGs was similar to that seen in Ribonuclease H2-depleted cells. Together these data support the hypothesis that both proteins act together in modulating RNA-DNA hybrids to contribute to the tightly-regulated process of antigenic variation.
The transmission of trypanosomatid parasites to mammalian hosts is facilitated by insect vectors. Parasites need to adapt to the extremely different environments encountered during transmission. To ensure their survival, they differentiate into various specialized forms adapted to each tissue microenvironment. Besides antigenic variation, DOT1B additionally affects the developmental differentiation from the mammalian-infective to the insect stage of Trypanosoma brucei. However, substantially less is known about the influence of chromatin-associated proteins such as DOT1B on survival and adaptation strategies of related Leishmania parasites. To elucidate whether DOT1B’s functions are conserved in Leishmania, phenotypes after gene deletion were analyzed. As in Trypanosoma brucei, generation of a gene deletion mutant demonstrated that DOT1B is not essential for the cell viability in vitro. DOT1B deletion was accompanied with a loss of histone H3 lysine 73 trimethylation (the lysine homologous to trypanosomal H3K76), indicating that Leishmania DOT1B is also solely responsible for catalyzing this post-translational modification. As in T. brucei, dimethylation could only be observed during mitosis/cytokinesis, while trimethylation was detectable throughout the cell cycle in wild-type cells. In contrast to the trypanosome DOT1B, LmxDOT1B was not essential for differentiation in vitro. However, preliminary data indicate that the enzyme is required for effective macrophage infection.
In conclusion, this study demonstrated that the identification of protein networks and the characterization of protein functions of orthologous proteins from related parasites are effective tools to improve our understanding of the parasite survival strategies. Such insights are a necessary step on the road to developing better treatments for the devastating diseases they cause.
Die Dissertation untersucht hospitalisierte Patienten in der Kinderklinik des Universitätsklinikum Innsbruck, die wegen einer rotaviren assoziierten Gastroenteritis hospitalisiert wurden. Der Untersuchungszeitraum war von Januar 2002 bis Dezmber 2012.Untersucht wurde die Hospitalisierungsrate, Hospitalisierungsdauer, Hospitalisierungsalter, die Schwere der Erkrankung sowie eine Änderung von nosokomialen und ambulanten Erwerb vor und nach Impfeinführung im Juli 2007.
Zielvorgabe dieser Dissertation stellte die Konstruktion eines Plasmides mit mehreren shRNA-Expressionskassetten für den simultanen Knockdown onkogener Zielstrukturen im Multiplen Myelom dar. Es sollte sich zudem um ein Konstrukt handeln, bei dem ein beliebig häufiges Einfügen oder Ersetzen von Expressionskassetten durch einfache Klonierungsschritte möglich ist.
Im Rahmen dieser Arbeit wurden Plasmide mit bis zu vier unterschiedlichen shRNA-Expressionskassetten konstruiert und getestet. Mittels Elektroporation und anschließender Analyse der Knock-down-Effizienz im Western Blot konnte beispielhaft an Proteinen des MEK-ERK-Signalweges gezeigt werden, dass mithilfe der klonierten Plasmide die Spiegel von mindestens vier Zielproteinen gleichzeitig herunterreguliert werden können, ohne dass es dabei zu Einschränkungen im Vergleich zur Verwendung von Einzel-shRNA-Expressionsvektoren kommt. Es konnte gezeigt werden, dass weder die zunehmende Menge an hintereinander klonierten Kassetten noch die Reihenfolge der einzelnen Expressionskassetten im Plasmid einen negativen Einfluss auf das Knock-down-Ergebnis haben. Dieses Ergebnis konnte in verschiedenen Zelllinien des Multiplen Myeloms bestätigt werden. Die Vorteile des Verfahrens liegen vor allem in der Kosteneffizienz, der einfachen Herstellung und Modifikation, sowie der niedrigen biologischen Sicherheitsstufe der Versuchsschritte. Bedeutend ist zudem die Vermeidung von toxischen Effekten, welche das Einbringen von Fremd-DNA in Zellen ab gewissen Mengen mit sich bringt, durch Klonierung aller shRNA-Expressionskassetten zu lediglich einem Plasmidkonstrukt. Einschränkungen erfährt die etablierte Methodik dadurch, dass die zu untersuchenden Zellen sich für die Transfizierung mit Plasmiden eigenen müssen und ein Verfahren der Selektion transfizierter von nativen Zellen verfügbar sein muss. Durch genannte Vorteile stellt das Konstrukt jedoch ein hervorragendes Mittel zur Erforschung zellulärer Signalwege und ihrer Interaktionen weit über die Erkrankung des Multiplen Myeloms hinaus dar. Es kann zudem als kostengünstige molekulare Methode zur Identifizierung neuer pharmakologischer Angriffspunkte bei Tumorerkrankungen dienen.
Die Ergebnisse dieser Arbeit wurden in Folgeversuchen genutzt um eine stabile Integration der shRNA-Expressionskassetten in die zelluläre DNA sowie eine pharmakologische Induzierbarkeit zu erreichen. Es konnte somit der Sprung von den transienten Knock-down-Versuchen dieser Arbeit hin zur langfristig verminderten Proteintranslation geschafft werden. Am Ende dieser Arbeit verblieb zu eruieren, inwieweit die Anzahl der shRNA-Expressionskassetten über die getestete Anzahl von vier erweiterbar wäre und ob die guten Erfahrungen mit dieser Methodik auch bei anderen Arten von Tumorzellen replizierbar sind. Das etablierte Vektorsystem könnte in künftigen Versuchen zur schnellen Erforschung bisher wenig untersuchter oder unbekannter Signalwege dienen.
Morbus Fabry betrifft als lysosomale Speicherkrankheit viele Organsysteme durch die Ablagerung von Gb3 in verschiedenen Geweben. Besonders durch die Beteiligung von Nieren und Herz, wird die Lebenszeit von den Patienten häufig verkürzt. Eine Beschreibung konkreter klinischer Symptome, welche auch durch Allgemeinmediziner oder Zahnärzte erkannt werden könnten, könnte eine frühzeitigere Diagnose und damit frühzeitige Therapie ermöglichen. Besonders extraorale gesichtsspezifische Merkmale können von verschiedensten Gruppen von Ärzten erkannt werden.
Die extraorale Auswertung zeigte, wie in der Literatur beschrieben, das Vorkommen von periorbitaler Fülle, prominente Arcus superciliaris, eine kürzere und bullösere Nase. Die Auffälligkeiten waren besonders bei den Männern zu beobachten.
Die intraorale Auswertung wurde in dentale Auffälligkeiten und Ereignisse des Hart- und Weichgewebes eingeteilt. Bei den dentalen Ereignissen zeigte sich eine Diskrepanz zwischen der Kiefergröße und dem Zahnmaterial. So neigte das Patientenkollektiv eher zu einem Breitkiefer, was eine Erklärung für die multiplen Lücken im Frontzahnbereich der Patienten darstellt. An der Mundschleimhaut und perioral konnten vermehrt Angiokeratome und Teleangiektasien festgestellt werden, sowie das vermehrte Vorkommen von Exostosen. Speziell die Zunge der Patienten zeigte auch Auffälligkeiten in Form von einer subjektiven Makroglossie, einer Furchenzunge und Veränderungen der Papillen.
Die Auffälligkeiten in der Mundhöhle und im Kopf-Hals Bereich der Morbus Fabry Patienten sind, wie der Literatur beschrieben, vorhanden, jedoch stellen sie keine Schlüsselrolle in der Diagnose dar, da sie in allen Bereichen nur leichte Abweichungen oder Auffälligkeiten zeigen, welche nicht immer Auftreten und daher schwer zu diagnostizieren sind.
Typ 1 Diabetes mellitus (T1DM) ist eine Autoimmunerkrankung, welche durch die progrediente Schä¬digung der βZellen der Pankreas mit dadurch resultierendem absolutem Insulin¬mangel gekennzeichnet ist. Obwohl sich eine Vielzahl an Studien in den ver¬gangenen Jahrzehnten den zellulären Grundlagen dieser Erkrankung ge¬widmet hat, fehlt bis dato ein geeigneter kausaler Therapieansatz, sodass nach wie vor lediglich die eher symptomatisch orientierte Insulin-Substitution im Vor-dergrund steht.
Die hier vorliegende Arbeit beschäftigte sich mit der genauen Charakterisierung von Immunzellen – insbesondere Lymphozyten – aus dem peripheren Blut er¬krankter Kinder mit dem Ziel, Verschiebungen im Phänotyp dieser Zellen aufzudecken, um potenzielle Ansatzpunkte zur weiteren Forschung und Therapiefindung zu finden. Hierfür wurde die Durchflusszytometrie genutzt, um den genauen Phänotyp der Lymphozyten zu untersuchen und Veränderungen im Oberflächenmarker-Expressionsmuster einzelner spezifischer Subpopulati¬onen zuweisen zu können.
In erster Linie wurden hierbei zwei Zellpopulationen identifiziert, welche bei erkrankten Kindern deutlich vermehrt im peripheren Blut vorkommen, als bei gesunden Vergleichspersonen.
Die Erste dieser Populationen sind CCR6-exprimierende CD4+ Zellen. Dies ist interessant, da CCR6 in verschiedenen früheren Studien mit Autoim¬munität in Verbindung gebracht wurde. In der weiteren Analyse zeigte sich, dass eine erhöhte IFNγ-Produktion in der vermutlich selben Zellpopulation vorlag, die auch CCR6 verstärkt exprimierte (Gedächtnis-T-Zellen vom Typ CD4+CD45RO+CCR7+CD28+), während kein Anhalt auf eine geänderte IL 17-Produktion gesehen wer¬den konnte.
Die zweite in unserer Studie bei T1DM deutlich vermehrte Zellpopulation sind CXCR3-exprimierende CD8+ Zellen. Hierbei handelte es sich in erster Linie um Zellen, welche auch CCR7 exprimierten.
In der hier vorliegenden Studie wurde die T1DM-Gruppe außerdem aufgeteilt nach der Krankheitsdauer (recent onset T1DM RO und long-standing T1DM LS), um im Krankheitsverlauf entstehende Veränderungen erkennen zu können. Es konnten jedoch insgesamt keine klaren derartigen Veränderungen festgestellt werden, was allerdings möglicherweise auch an einer zu geringen überblickten Zeitspanne liegen könnte (geringe durchschnittliche und maximale Krankheitsdauer).
Aufgrund unserer Ergebnisse kann spekuliert werden, dass es sich bei den prozentuell vermehrt auftre¬tenden CCR6+ Zellen um IFNγ-produzierende Zellen handelt. Dies würde neueren Erkenntnissen von anderen Studien entsprechen, welche nicht – wie zuvor vermu¬tet wurde – Th17 Zellen, sondern nicht-klassische Th1 Zellen als pathogene Population diskutieren. Ein quantitativer Mangel an Treg als Ursache der ge¬steigerten IFNγ-Produktion erscheint nach unseren Ergebnissen unwahrscheinlich, da wir erhöhte Mengen CD25+CD127 /dim Zellen bei T1DM nachweisen konnten.
Die beobachtete Koexpression von CXCR3 und CCR7 ist interessant vor dem Hintergrund, dass CXCR3-Überexpression im Pankreas in einer früheren Studie mit T1DM in Verbindung gebracht wurde, jedoch eine CXCR3-Blockade bisher keinen geeigneten therapeutischen Ansatz lieferte. Zunächst kann hier aber nur eine Assoziation beschrieben werden, wobei ein kausaler Zusammenhang in geeigneten Studiendesigns überprüft werden müsste.
Eine genauere Betrachtung der CD8+CCR7+CXCR3+ Zellen könnte nach unserer Ansicht interessante neue Aspekte und potenzielle Therapieansätze offenlegen. Insbesondere scheint die Untersuchung CCR7-vermittelter Migration dieser Zel¬len einen geeigneten Studienansatz darzustellen. Ebenso verweisen unsere Er-gebnisse erneut auf eine pathogene Rolle CCR6-exprimierender Zellen, welche in kommenden Studien näher beleuchtet werden sollte.
Zusammenfassung:
Unsere Arbeit bestätigt die aus kleineren Studien bekannte hohe Expression der Chemokinrezeptoren CXCR4 und CXCR7 in der normalen Nebenniere und in der Mehrheit der Nebennierenkarzinome. Das auf mRNA Ebene bestätigte Vorkommen beider Chemokinrezeptoren im gesunden Nebennierengewebe deutet auf eine überwiegend für die normale Nebennierenphysiologie wichtige Rolle dieser Chemokinrezeptoren hin. Eine eventuell dennoch bestehende pathophysiologische Relevanz der Rezeptoren wurde ergänzend überprüft und ergab keinen signifikanten Einfluss auf die Prognose des Nebennierenkarzinoms.