Refine
Has Fulltext
- yes (1581) (remove)
Year of publication
- 2021 (1581) (remove)
Document Type
- Journal article (940)
- Doctoral Thesis (527)
- Complete part of issue (45)
- Book article / Book chapter (14)
- Book (13)
- Conference Proceeding (10)
- Working Paper (9)
- Other (7)
- Master Thesis (5)
- Preprint (4)
Language
- English (1146)
- German (422)
- Spanish (12)
- Multiple languages (1)
Keywords
- Wuerzburg (46)
- Wurzburg (45)
- Würzburg (45)
- University (44)
- Universität (44)
- COVID-19 (20)
- inflammation (17)
- virtual reality (14)
- boron (13)
- SARS-CoV-2 (11)
Institute
- Theodor-Boveri-Institut für Biowissenschaften (175)
- Graduate School of Life Sciences (124)
- Institut für Anorganische Chemie (73)
- Medizinische Klinik und Poliklinik I (71)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (61)
- Medizinische Klinik und Poliklinik II (60)
- Institut für Psychologie (56)
- Neurologische Klinik und Poliklinik (52)
- Institut für Informatik (51)
- Institut für Organische Chemie (49)
Schriftenreihe
Sonstige beteiligte Institutionen
- Cologne Game Lab (3)
- DFG Forschungsgruppe 2757 / Lokale Selbstregelungen im Kontext schwacher Staatlichkeit in Antike und Moderne (LoSAM) (2)
- Klinikum Fulda (2)
- Open University of the Netherlands (2)
- Ökologische Station Fabrikschleichach (2)
- Airbus Defence and Space GmbH (1)
- Akademie der Wissenschaften und der Literatur, Mainz (1)
- Apotheke, Universitätsklinikum Würzburg (1)
- Biomedical Center Munich, Department of Physiological Chemistry, Ludwig-Maximilians-Universität München (1)
- Birmingham City University (1)
G-protein-coupled receptors (GPCRs) regulate diverse physiological processes in the human body and represent prime targets in modern drug discovery. Engagement of different ligands to these membrane-embedded proteins evokes distinct receptor conformational rearrangements that facilitate subsequent receptor-mediated signalling and, ultimately, enable cellular adaptation to altered environmental conditions. Since the early 2000s, the technology of resonance energy transfer (RET) has been exploited to assess these conformational receptor dynamics in living cells and real time. However, to date, these conformational GPCR studies are restricted to single-cell microscopic setups, slowing down the discovery of novel GPCR-directed therapeutics. In this work, we present the development of a novel generalizable high-throughput compatible assay for the direct measurement of GPCR activation and deactivation. By screening a variety of energy partners for fluorescence (FRET) and bioluminescence resonance energy transfer (BRET), we identified a highly sensitive design for an α2A-adrenergic receptor conformational biosensor. This biosensor reports the receptor’s conformational change upon ligand binding in a 96-well plate reader format with the highest signal amplitude obtained so far. We demonstrate the capacity of this sensor prototype to faithfully quantify efficacy and potency of GPCR ligands in intact cells and real time. Furthermore, we confirm its universal applicability by cloning and validating five further equivalent GPCR biosensors. To prove the suitability of this new GPCR assay for screening purposes, we measured the well-accepted Z-factor as a parameter for the assay quality. All tested biosensors show excellent Z-factors indicating outstanding assay quality. Furthermore, we demonstrate that this assay provides excellent throughput and presents low rates of erroneous hit identification (false positives and false negatives). Following this phase of assay development, we utilized these biosensors to understand the mechanism and consequences of the postulated modulation of parathyroid hormone receptor 1 (PTHR1) through receptor activity-modifying protein 2 (RAMP2). We found that RAMP2 desensitizes PTHR1, but not the β2-adrenergic receptor (β2AR), for agonist-induced structural changes. This generalizable sensor design offers the first possibility to upscale conformational GPCR studies, which represents the most direct and unbiased approach to monitor receptor activation and deactivation. Therefore, this novel technology provides substantial advantages over currently established methods for GPCR ligand screening. We feel confident that this technology will aid the discovery of novel types of GPCR ligands, help to identify the endogenous ligands of so-called orphan GPCRs and deepen our understanding of the physiological regulation of GPCR function.
Nach Stimulierung mit einem IP3-Rezeptor Agonisten wird die mitochondriale Ca2+-Aufnahme stimuliert. Wenn diese mitochondriale Ca2+-Aufnahme durch Dantrolen oder Ru360 blockiert wird, dann steigt nachfolgend das zytosolische [Ca2+] an. Nach Blockierung des mRyR durch Dantrolen steigt zusätzlich durch die Beeinflussung der passiven Komponente des nukleären Ca2+-Transienten das nukleäre [Ca2+] an. Dieses erhöhte nukleäre [Ca2+] hat letztlich eine Hypertrophie zur Folge. Somit können Mitochondrien, die in ihrer Funktion gestört sind, zur Entwicklung der Hypertrophie beitragen.
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses.
To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error.
Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon.
To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized:
Contribution I - Forecasting Benchmark
To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope.
Contribution II - Telescope
To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively.
Contribution III - Chamulteon
To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%.
The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result.
Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience.
In der vorliegenden klinischen retrospektiven Studie wurden 147 Goldteilkronen und 149 Keramikteilkronen an 296 Patienten nachuntersucht. Der Beobachtungszeitraum umfasste 9-25 Jahre nach Insertion (M = 14,28, SD = 3,59).
Die systematische Bewertung der Restaurationsqualität beruhte auf modifizierten USPHS-Kriterien, klinischen Parametern sowie einer röntgenologischen Beurteilung anhand eines Zahnfilms.
Die Goldteilkronen waren zu 68% (n = 100), Keramikteilkronen zu 75,2% (n = 112) in einem exzellenten bis akzeptablen Zustand. Eine Reparatur unter Erhalt der Restauration war bei 25,9% (n = 38) der Gold- und 20,8% (n = 31) der Keramikrestaurationen notwendig. Goldrestaurationen konnten in 6,1% der Fälle (n = 9) nicht erhalten werden, Keramikrestaurationen in 4% der Fälle (n = 6).
Die Qualität der Keramikrestaurationen war hinsichtlich der Kriterien Randverfärbung, Oberflächendefekte/Retention, Randqualität und Karies niedriger als die der hochgold-haltigen Restaurationen. Die Gesamtqualität wies keine signifikanten Unterschiede zwischen den Restaurationsgruppen auf. Vorhandene Plaqueakkumulation, erhöhtes Kariesrisiko und steigendes Patientenalter wirkten sich qualitätsmindernd auf die indirekten Restaurationen aus.
Gold- und Keramikteilkronen wiesen zufriedenstellende klinische Ergebnisse auf und können gleichermaßen als langfristige, hochqualitative Versorgung für ausgedehnte Defekte im Seitenzahnbereich angesehen werden.
Ziel der prospektiven, klinischen und multizentrischen Kohortenstudie war die Untersuchung des Einflusses demographischer (Alter, SÖS), psychologischer (KIDSCREEN-10, RSES, SDQ) und kieferorthopädischer Parameter auf die Mundgesundheitsbezogene Lebensqualität (COHIP-G19) von Kindern und Jugendlichen. Hierzu wurden 250 kieferorthopädische Patienten akquiriert. Die Ergebnisse zeigten signifikante Zusammenhänge zwischen der Mundgesundheitsbezogenen Lebensqualität und: (1) dem Alter, (2) der gesundheitsbezogenen Lebensqualität, (3) dem Selbstwertgefühl, (4) Verhaltensauffälligkeiten, (5) dem objektiven kieferorthopädischen Behandlungsbedarf, (6) spezifischen kieferorthopädischen Befunden.
Rezeptor-vermittelte Chemotherapie von ovarialen Karzinomzellen mit Disorazol-GnRH-Konjugaten
(2021)
Das Ovarialkarzinom stellt einen häufigen maligen Tumor der Frau dar, der meist spät diagnostiziert wird. Therapeutische Optionen sind nur eingeschränkt verfügbar und nebenwirkungsbehaftet. In der modernen Tumortherapie sind zielgerichtete medikamentöse Ansätze von immer größer Bedeutung und sind bei verschiedenen Entitäten bereits zugelassen. Da Ovarialkarzinome häufig GnRH-Rezeptoren exprimieren, stellt dies einen guten Angriffspunkt für mögliche Therapeutika dar.
In dieser Arbeit wurde die Wirkung von Disorazol, einem potenten Zytotoxin, in Kopplung an GnRH auf Ovarialkarzinom-Zellen untersucht. Unter anderem wurden hierbei RT-PCR, Kristallviolettversuche, WST-Versuche und FACS-Analysen durchgeführt.
Molekularbiologisch war eine deutliche Expression von GnRH-Rezeptoren auf ovarialen Karzinomzellen zu sehen. Es zeigte sich eine spezifische Toxizität von GnRH-Disorazol-Konjugaten auf Ovarialkarzinom-Zelllinien und andere GnRH-tragende Zellen. Lymphozyten aus dem peripheren Blut waren nicht im besonderen Maße anfällig für Disorazol. Verapamil konnte in einzelnen Zelllinien die Toxizität des Konjugats verstärken, eine Cisplatin-Resistenz hatte jedoch keinen Einfluss darauf. Apoptose-inhibierende Substanzen wie zVAD verminderten den Anteil an toten Zellen, Necrostatin war dazu nicht in der Lage.
Die spezifische Wirksamkeit von GnrH gekoppeltem Disorazol auf Ovarialkarzinomzellen bestätigt das ursprüngliche Therapiekonzept. Eine ausgeprägtere Hämatotoxizität konnte nicht nachgewiesen werden, was im Hinblick auf den klinischen Einsatz eine bedeutende Rolle spielt. Da einige weitere Entitäten wie das triple-negative Mamma-Karzinom GnRH-Rezeptor-exprimierende Zellen aufweisen, ist ein Einsatz auch in diesen Krankheitsbildern denkbar.
Fluorescence microscopy is a form of light microscopy that has developed during the 20th century and is nowadays a standard tool in Molecular and Cell biology for studying the structure and function of biological molecules. High-resolution fluorescence microscopy techniques, such as dSTORM (direct Stochastic Optical Reconstruction Microscopy) allow the visualization of cellular structures at the nanometre scale (10−9 m). This has already made it possible to decipher the composition and function of various biopolymers, such as proteins, lipids and nucleic acids, up to the three-dimensional (3D) structure of entire organelles. In practice, however, it has been shown that these imaging methods and their further developments still face great challenges in order to achieve an effective resolution below ∼ 10 nm. This is mainly due to the nature of labelling biomolecules. For the detection of molecular structures, immunostaining is often performed as a standard method. Antibodies to which fluorescent molecules are coupled, recognize and bind specifcally and with high affnity to the molecular section of the target structure, also called epitope or antigen. The fluorescent molecules serve as reporter molecules which are imaged with the use of a fluorescence microscope. However, the size of these labels with a length of about 10-15 nm in the case of immunoglobulin G (IgG) antibodies, cause a detection of the fluorescent molecules shifted to the real position of the studied antigen. In dense regions where epitopes are located close to each other, steric hindrance between antibodies can also occur and leads to an insuffcient label density. Together with the shifted detection of fluorescent molecules, these factors can limit the achievable resolution of a microscopy technique. Expansion microscopy (ExM) is a recently developed technique that achieves a resolution improvement by physical expansion of an investigated object. Therefore, biological samples such as cultured cells, tissue sections, whole organs or isolated organelles are chemically anchored into a swellable polymer. By absorbing water, this so-called superabsorber increases its own volume and pulls the covalently bound biomolecules isotropically apart. Routinely, this method achieves a magnifcation of the sample by about four times its volume. But protocol variants have already been developed that result in higher expansion factors of up to 50-fold. Since the ExM technique includes in the frst instance only the sample treatment for anchoring and magnifcation of the sample, it can be combined with various standard methods of fluorescence microscopy. In theory, the resolution of the used imaging technique improves linearly with the expansion factor of the ExM treated sample. However, an insuffcient label density and the size of the antibodies can here again impair the effective achievable resolution. The combination of ExM with high-resolution fluorescence microscopy methods represents a promising strategy to increase the resolution of light microscopy. In this thesis, I will present several ExM variants I developed which show the combination of ExM with confocal microscopy, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) and dSTORM. I optimized existing ExM protocols and developed different expansion strategies, which allow the combination with the respective imaging technique. Thereby, I gained new structural insights of isolated centrioles from the green algae Chlamydomonas reinhardtii by combining ExM with STED and confocal microscopy. In another project, I combined 3D-SIM imaging with ExM and investigated the molecular structure of the so-called synaptonemal complex. This structure is formed during meiosis in eukaryotic cells and contributes to the exchange of genetic material between homologous chromosomes. Especially in combination with dSTORM, the ExM method showed its high potential to overcome the limitations of modern fluorescence microscopy techniques. In this project, I expanded microtubules in mammalian cells, a polymer of the cytoskeleton as well as isolated centrioles from C. reinhardtii. By labelling after expansion of the samples, I was able to signifcantly reduce the linkage error of the label and achieve an improved label density. In future, these advantages together with the single molecule sensitivity and high resolution obtained by the dSTORM method could pave the way for achieving molecular resolution in fluorescence microscopy
Strahlentherapie des Zervixkarzinoms untergliedert sich in die Teletherapie von extrakorporal und die Brachytherapie von intrauterin und intravaginal. Während in Bezug auf die Teletherapie international standardisierte Therapieschemata bestehen, fehlen diese bei der Brachytherapie. In Würzburg wurde ein Therapieregime von 3x8,5 Gy gewählt, während in anderen Therapierzentren mit z.B. 4x7 Gy oder 5x6 Gy bestrahlt wurde. Somit wurden in Würzburg deutlich höheren Einzeldosen appliziert.
Ziel der Arbeit war es, das in Würzburg angewandte Fraktionierungsschema auf Verträglichkeit und Effektivität zu überprüfen. In die Studie eingeschlossen wurden 74 Patientinnen, die zwischen Februar 1999 und September 2014 bei gesichertem Zervixkarzinom einer primären Radiochemotherapie unterzogen wurden. In einem medianen Follow-Up von 48 Monaten wurden Nebenwirkungen an Blase und Rektum sowie lokale und regionäre Rezidive und Fernmetastasen erhoben.
Bei neun Patientinnen (12,2%) wurde am Rektum eine Spätnebenwirkung vom Grad III oder IV nach CTCAE festgestellt, an der Blase wurde dies bei drei Patientinnen (4,8%) gefunden. Bei zwei (2,7%) Patientinnen fand sich ein lokaler, bei drei Patientinnen (4%) ein regionärer Progress. 19 Patientinnen (25,66%) entwickelten Fernmetastasen.
Es zeigte sich zusammenfassend, dass es im Rahmen des angewandten Therapieschemas zu einer im internationalen Vergleich sehr guten lokalen Kontrolle kam bei vor allem am Rektum leicht erhöhten höhergradigen Nebenwirkungsraten. Mittels moderner bildgestützter IMRT- und Brachytherapie-Planung werden sich diese Toxizitäten in Zukunft weiter reduzieren lassen.
Die Stammzellforschung beschäftigt sich bereits seit Jahren mit der Frage, wie Gewebe oder sogar Organe im Labor hergestellt werden können. Als besonders vielversprechend erscheinen hierfür humane Mesenchymale Stammzellen (hMSC), da diese in vielen Fällen direkt vom Empfänger gewonnen werden können und so keine Organ- oder Gewebeabstoßung durch Abwehrreaktionen zu erwarten ist. Für die weitere Erforschung des Verhaltens von Stammzellen in vivo ist es notwendig, diese nicht-invasiv darstellen zu können. Dies ist zum Beispiel mittels Magnetischer Partikel Bildgebung (MPI) möglich. Hierfür müssen die Stammzellen mit einer geeigneten Substanz markiert werden. Eine solche sind beispielsweise superparamagnetische Eisenoxidnanopartikel (SPION). Derzeit gibt es keine von den medizinischen Zulassungsbehörden zugelassenen SPION die ohne TA in hMSC aufgenommen werden. In der hier vorliegenden Arbeit sollte also im Rahmen des
EU-weiten „IDEA-Projekts“ ein geeigneter SPION identifiziert werden, der eine optimale Zell-Partikel-Interaktion aufweist und sowohl mittels MPI als auch mit Raman-Spektroskopie nachweisbar ist. Zudem sollte die Nachweisbarkeit des SPION über einen längeren Zeitraum gegeben und kein Einfluss auf die hMSC feststellbar sein. Es wurden hMSC mit den Eisenoxidnanopartikeln M4E, M4F, M4F2 und M3A-PDL in unterschiedlichen Konzentrationen markiert. Für M3A-PDL und M4E erfolgten bei einer Konzentration von 0,5 mg/ml Untersuchungen in Zellkultur sowie auf SIS-ser als Matrix im 3D-Modell. Desweiteren wurde das Differenzierungsverhalten der mit M4E markierten hMSC bei chondrogener Differenzierung untersucht. Außerdem kamen Magnetische Partikel Spektroskopie (MPS) und Raman-Spektroskopie als nicht-invasive Nachweisverfahren zum Einsatz. Der SPION-Nachweis erfolgte histologisch mittels Berliner Blau Färbung. Untersuchungen zu Zellviabilität und Proliferation erfolgten durch Trypanblau sowie Ki67-Antikörper-Färbung. Um Nachzuweisen ob auch markierte Zellen proliferieren wurde eigens ein kombiniertes Färbeprotokoll zur Kombination von Berliner Blau und immunhistochemischer Färbung
etabliert. Der Erfolg der chrondrogenen Differenzierung wurde mittels Alcianblau, Aggrecan- und Kollagen-II-Antikörper Färbung überprüft. Es konnte gezeigt werden, dass M4E bei der Markierung von hMSC eine sehr gute Zell-Partikel-Interaktion aufweist und im Gegensatz zu M3A auch ohne TA in die Zellen aufgenommen wird. Durch beide Partikel werden Zellviabilität und Proliferation nicht beeinflusst. M4F sowie M4F2 ist zur Markierung nicht geeignet. Die Markierung ließ sich im 3D-Modell mit vier Wochen deutlich länger nachweisen als in 2D Zellkultur mit maximal zwei Wochen. Die chondrogene Differenzierung wird durch die Markierung mit 0,5 mg/ml M4E beeinflusst. M3A-PDL sind durch MPS nachweisbar. Die Raman-Spektroskopie eignet sich zur Differenzierung zwischen mit M3A-PDL markierten und unmarkierten hMSC. Es ist im Rahmen dieser Arbeit gelungen, einen
Eisenoxidnanopartikel mit hervorragender Zell-Partikel-Interaktion zu identifizieren, der ohne zusätzliches TA eine intensive Markierung der hMSC ermöglicht und mit MPS nachweisbar ist. Für M4E konnte in weiteren Arbeiten am Institut bereits gezeigt werden, dass auch eine Differenzierung zwischen markierten und unmarkierten Zellen mittels Raman-Spektroskopie möglich ist. Die chondrogene Differenzierung der hMSC wurde in der vorliegenden Arbeit allerdings beeinträchtigt. In der Literatur finden sich Hinweise auf eine dosisabhängige Inhibition der Differenzierung. Es sind daher weitere Versuche notwendig, um herauszufinden, ob die Inhibition der Differenzierung möglicherweise bei geringerer SPION-Konzentration weniger ausgeprägt ist. Zudem sollte untersucht werden, ob auch geringere Konzentrationen in den Zellen über mehrere Wochen mittels MPS nachweisbar bleiben. Desweiteren sollten Untersuchungen in, der in vivo Situation ähnlicheren,
Systemen, wie dem dynamischen Umfeld einer BioVaSc-TERM® durchgeführt werden um bessere Vorhersagen zum Verhalten markierter hMSC in vivo treffen zu können.
E-Mails, Online Banking und Videokonferenzen sind aus unserem heutigen Alltag nicht mehr wegzudenken. Bei all diesen Aktivitäten werden zahlreiche personenbezogene Informationen und vertrauenswürdige Daten digital übertragen und gespeichert. Zur Sicherstellung der digitalen Daten vor unbefugten Zugriffen und Manipulationen existieren verschiedenste Konzepte, Methoden und Verfahren, die sich unter dem Begriff IT-Sicherheit zusammenfassen lassen. Klassische Sicherheitslösungen aus dem Bereich IT-Sicherheit sind Firewalls und Virenscanner. Derartige Ansätze sind meist regelbasiert und prüfen Dateien beziehungsweise eingehenden Netzwerkverkehr anhand einer Liste bekannter Angriffssignaturen. Folglich können diese Systeme nur bereits bekannte Angriffsszenarien detektieren und bieten keinen Schutz vor neuartigen Angriffen. Somit entsteht im Bereich IT-Sicherheit ein Wettlauf zwischen Hackern und IT-Sicherheitsexperten, bei dem die Hacker stets nach neuen Mitteln und Wegen suchen, die existierenden Sicherheitslösungen zu überwinden, während IT-Sicherheitsexperten stetig ihre Schutzmechanismen verbessern.
Die vorliegende Arbeit widmet sich der Detektion von Angriffsszenarien in Unternehmensnetzwerken mithilfe von Data Mining-Methoden. Diese Methoden sind in der Lage anhand von repräsentativen Daten die darin enthaltenen Strukturen zu erlernen und zu generalisieren. Folglich können sich Data Mining-Methoden grundsätzlich zur Detektion neuer Angriffsszenarien eignen, wenn diese Angriffsszenarien Überschneidungen mit bekannten Angriffsszenarien aufweisen oder sich wesentlich vom bekannten Normalverhalten unterscheiden. In dieser Arbeit werden netzwerkbasierte Daten im NetFlow Format analysiert, da diese einen aggregierten Überblick über das Geschehen im Netzwerk bieten. Häufig können Netzwerkdaten aufgrund datenschutzrechtlicher Bedenken nicht veröffentlicht werden, was für die Erzeugung synthetischer, aber realistischer Netzwerkdaten spricht. Des Weiteren führt die Beschaffenheit der Netzwerkdaten dazu, dass eine Kombination von kontinuierlichen und kategorischen Attributen analysiert werden muss, was vor allem das Vergleichen der Daten bezüglich ihrer Ähnlichkeit erschwert.
Diese Arbeit liefert methodische Beiträge zu jeder der drei genannten Herausforderungen. Im Bereich der Abstandsberechnung kategorischer Werte werden mit ConDist und IP2Vec zwei unterschiedliche Ansätze entwickelt. ConDist ist ein universell einsetzbares Abstandsmaß zur Berechnung von Abständen zwischen Datenpunkten, die aus kontinuierlichen und kategorischen Attributen bestehen. IP2Vec ist auf Netzwerkdaten spezialisiert und transformiert kategorische Werte in kontinuierliche Vektoren.
Im Bereich der Generierung realistischer Netzwerkdaten werden neben einer ausführlichen Literaturrecherche zwei unterschiedliche Ansätze vorgestellt. Zunächst wird ein auf Simulation basierter Ansatz zur Generierung flowbasierter Datensätze entwickelt. Dieser Ansatz basiert auf einer Testumgebung und simuliert typische Benutzeraktivitäten durch automatisierte Python Skripte. Parallel hierzu wird ein zweiter Ansatz zur synthetischen Generierung flowbasierter Netzwerkdaten durch Modellierung mithilfe von Generative Adversarial Networks entwickelt. Dieser Ansatz erlernt die zugrundeliegenden Eigenschaften der Netzwerkdaten und ist anschließend in der Lage, neue Netzwerkdaten mit gleichen Eigenschaften zu generieren.Während sich der erste Ansatz zur Erstellung neuer Datensätze eignet, kann der zweite Ansatz zur Anreicherung existierender Datensätze genutzt werden.
Schließlich liefert diese Arbeit noch zwei Beiträge zur Detektion von Angriffsszenarien. Im ersten Beitrag wird ein Konzept zur Detektion von Angriffsszenarien entwickelt, welches sich an die typischen Phasen eines Angriffsszenarios orientiert. Im zweiten Beitrag werden eine überwachte und eine unüberwachte Methode zur Detektion von langsamen Port Scans vorgestellt.