@phdthesis{Engelmann2008, author = {Engelmann, Julia Cath{\´e}rine}, title = {DNA microarrays: applications and novel approaches for analysis and interpretation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-29747}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {In der vorliegenden Dissertation wird die Entwicklung eines phylogenetischen DNA Microarrays, die Analyse von mehreren Microarray-Genexpressionsdatens{\"a}tzen und neue Ans{\"a}tze f{\"u}r die Datenanalyse und Interpretation der Ergebnisse vorgestellt. Die Entwicklung und Analyse der Daten eines phylogenetischen DNA Microarrays wird in der ersten Publikation dargestellt. Ich konnte zeigen, dass die Spezies-Detektion mit phylogenetischen Microarrays durch die Datenanalyse mit einem linearen Regressionsansatz signifikant verbessert werden kann. Standard-Methoden haben bislang nur Signalintensit{\"a}ten betrachtet und eine Spezies als an- oder abwesend bezeichnet, wenn die Signalintensit{\"a}t ihres Messpunktes oberhalb eines willk{\"u}rlich gesetzten Schwellenwertes lag. Dieses Verfahren ist allerdings aufgrund von Kreuz-Hybridisierungen nicht auf sehr nah verwandte Spezies mit hoher Sequenzidentit{\"a}t anwendbar. Durch die Modellierung des Hybridisierungs und Kreuz-Hybridisierungsverhaltens mit einem linearen Regressionsmodell konnte ich zeigen, dass Spezies mit einer Sequenz{\"a}hnlichkeit von 97\% im Markergen immer noch unterschieden werden k{\"o}nnen. Ein weiterer Vorteil der Modellierung ist, dass auch Mischungen verschiedener Spezies zuverl{\"a}ssig vorhergesagt werden k{\"o}nnen. Theoretisch sind auch quantitative Vorhersagen mit diesem Modell m{\"o}glich. Um die großen Datenmengen, die in {\"o}ffentlichen Microarray-Datenbanken abgelegt sind besser nutzen zu k{\"o}nnen, bieten sich Meta-Analysen an. In der zweiten Publikation wird eine explorative Meta-Analyse auf Arabidopsis thaliana-Datens{\"a}tzen vorgestellt. Mit der Analyse verschiedener Datens{\"a}tze, die den Einfluss von Pflanzenhormonen, Pathogenen oder verschiedenen Mutationen auf die Genexpression untersucht haben, konnten die Datens{\"a}tze anhand ihrer Genexpressionsprofile in drei große Gruppen eingeordnet werden: Experimente mit Indol-3-Essigs{\"a}ure (IAA), mit Pathogenen und andere Experimente. Gene, die charakteristisch f{\"u}r die Gruppe der IAA-Datens{\"a}tze beziehungsweise f{\"u}r die Gruppe der Pathogen-Datens{\"a}tze sind, wurden n{\"a}her betrachtet. Diese Gene hatten Funktionen, die bereits mit Pathogenbefall bzw. dem Einfluss von IAA in Verbindung gebracht wurden. Außerdem wurden Hypothesen {\"u}ber die Funktionen von bislang nicht annotierten Genen aufgestellt. In dieser Arbeit werden auch Prim{\"a}ranalysen von einzelnen Arabidopsis thaliana Genexpressions-Datens{\"a}tzen vorgestellt. In der dritten Publikation wird ein Experiment beschrieben, das durchgef{\"u}hrt wurde um herauszufinden ob Mikrowellen-Strahlung einen Einfluss auf die Genexpression einer Zellkultur hat. Dazu wurden explorative Analysemethoden angewendet. Es wurden geringe aber signifikante Ver{\"a}nderungen in einer sehr kleinen Anzahl von Genen beobachtet, die experimentell best{\"a}tigt werden konnten. Die Funktionen der regulierten Gene und eine Meta-Analyse mit {\"o}ffentlich zug{\"a}nglichen Datens{\"a}tzen einer Datenbank deuten darauf hin, dass die pflanzliche Zellkultur die Strahlung als eine Art Energiequelle {\"a}hnlich dem Licht wahrnimmt. Des weiteren wird in der vierten Publikation die funktionelle Analyse eines Arabidopsis thaliana Genexpressionsdatensatzes beschrieben. Die Analyse der Genexpressions eines pflanzlichen Tumores zeigte, dass er seinen Stoffwechsel von aerob und auxotroph auf anaerob und heterotroph umstellt. Gene der Photosynthese werden im Tumorgewebe reprimiert, Gene des Aminos{\"a}ure- und Fettstoffwechsels, der Zellwand und Transportkan{\"a}le werden so reguliert, dass Wachstum und Entwicklung des Tumors gef{\"o}rdert werden. In der f{\"u}nften Publikation in dieser Arbeit wird GEPAT (Genome Expression Pathway Analysis Tool) beschrieben. Es besteht aus einer Internet- Anwendung und einer Datenbank, die das einfache Hochladen von Datens{\"a}tzen in die Datenbank und viele M{\"o}glichkeiten der Datenanalyse und die Integration anderer Datentypen erlaubt. In den folgenden zwei Publikationen (Publikation 6 und Publikation 7) wird GEPAT auf humane Microarray-Datens{\"a}tze angewendet um Genexpressionsdaten mit weiteren Datentypen zu verkn{\"u}pfen. Genexpressionsdaten und Daten aus vergleichender Genom-Hybridisierung (CGH) von prim{\"a}ren Tumoren von 71 Mantel-Zell-Lymphom (MCL) Patienten erm{\"o}glichte die Ermittlung eines Pr{\"a}diktors, der die Vorhersage der {\"U}berlebensdauer von Patienten gegen{\"u}ber herk{\"o}mmlichen Methoden verbessert. Die Analyse der CGH Daten zeigte, dass auch diese f{\"u}r die Vorhersage der {\"U}berlebensdauer geeignet sind. F{\"u}r den Datensatz von Patienten mit großzellig diffusem B-Zell-Lymphom DLBCL konnte aus den Genexpressionsdaten ebenfalls ein neuer Pr{\"a}diktor vorgeschlagen werden. Mit den zwischen lang und kurz {\"u}berlebenden Patienten differentiell exprimierten Genen der MCL Patienten und mit den Genen, die zwischen den beiden Untergruppen von DLBCL reguliert sind, wurden Interaktionsnetzwerke gebildet. Diese zeigen, dass bei beiden Krebstypen Gene des Zellzyklus und der Proliferation zwischen Patienten mit kurzer und langer {\"U}berlebensdauer unterschiedlich reguliert sind.}, subject = {Microarray}, language = {en} } @phdthesis{Weniger2007, author = {Weniger, Markus}, title = {Genome Expression Pathway Analysis Tool - Analyse und Visualisierung von Microarray Genexpressionsdaten unter genomischen, proteomischen und metabolischen Gesichtspunkten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-25392}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Die Messung der Genexpression ist f{\"u}r viele Bereiche der Biologie und Medizin wichtig geworden und unterst{\"u}tzt Studien {\"u}ber Behandlung, Krankheiten und Entwicklungsstadien. Microarrays k{\"o}nnen verwendet werden, um die Expression von tausenden mRNA-Molek{\"u}len gleichzeitig zu messen und erm{\"o}glichen so einen Einblick und einen Vergleich der verschiedenen zellul{\"a}ren Bedingungen. Die Daten, die durch Microarray-Experimente gewonnen werden, sind hochdimensional und verrauscht, eine Interpretation der Daten ist deswegen nicht einfach. Obwohl Programme f{\"u}r die statistische Auswertung von Microarraydaten existieren, fehlt vielen eine Integration der Analyseergebnisse mit einer automatischen Interpretationsm{\"o}glichkeit. In dieser Arbeit wurde GEPAT, Genome Expression Pathway Analysis Tool, entwickelt, das eine Analyse der Genexpression unter dem Gesichtspunkten der Genomik, Proteomik und Metabolik erm{\"o}glicht. GEPAT integriert statistische Methoden zum Datenimport und -analyse mit biologischer Interpretation f{\"u}r Genmengen oder einzelne Gene, die auf dem Microarray gemessen werden. Verschiedene Typen von Oligonukleotid- und cDNAMicroarrays k{\"o}nnen importiert werden, unterschiedliche Normalisierungsmethoden k{\"o}nnen auf diese Daten angewandt werden, anschließend wird eine Datenannotation durchgef{\"u}hrt. Nach dem Import k{\"o}nnen mit GEPAT verschiedene statische Datenanalysemethoden wie hierarchisches, k-means und PCA-Clustern, ein auf einem linearen Modell basierender t-Test, oder ein Vergleich chromosomaler Profile durchgef{\"u}hrt werden. Die Ergebnisse der Analysen k{\"o}nnen auf H{\"a}ufungen biologischer Begriffe und Vorkommen in Stoffwechselwegen oder Interaktionsnetzwerken untersucht werden. Verschiedene biologische Datenbanken wurden integriert, um zu jeder Gensonde auf dem Array Informationen zur Verf{\"u}gung stellen zu k{\"o}nnen. GEPAT bietet keinen linearen Arbeitsablauf, sondern erlaubt die Benutzung von beliebigen Teilmengen von Genen oder biologischen Proben als Startpunkt einer neuen Analyse oder Interpretation. Dabei verl{\"a}sst es sich auf bew{\"a}hrte Datenanalyse-Pakete, bietet einen modularen Ansatz zur einfachen Erweiterung und kann auf einem verteilten Computernetzwerk installiert werden, um eine große Zahl an Benutzern zu unterst{\"u}tzen. Es ist unter der LGPL Open-Source Lizenz frei verf{\"u}gbar und kann unter http://gepat.sourceforge.net heruntergeladen werden.}, subject = {Microarray}, language = {de} } @phdthesis{Wagner2008, author = {Wagner, Silvia}, title = {Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkapturs{\"a}uren als Indikatoren f{\"u}r die Bildung toxischer Intermediate}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-35760}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Ph{\"a}notyp hierf{\"u}r der Begriff „Metabotyp" gepr{\"a}gt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, k{\"o}nnen Signaturen gegen{\"u}bergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einf{\"u}hrung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die urspr{\"u}nglich zur Pr{\"a}diktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu {\"u}bertragen, die den Menschen im Mittelpunkt haben. Neben pr{\"a}klinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ern{\"a}hrung einen Schritt n{\"a}her zu kommen. Da sich die urspr{\"u}nglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anf{\"a}llig gegen{\"u}ber biologischen und analytischen Einflussgr{\"o}ßen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckfl{\"u}ssigchromatographie erwies sich hierbei f{\"u}r das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datens{\"a}tze resultierten, die h{\"a}ufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen" zu k{\"o}nnen. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zus{\"a}tzlichen Schwierigkeiten verbunden und bedarf aufw{\"a}ndiger analytischer Verfahren. Eine Strategie stellt daher die Beschr{\"a}nkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, k{\"o}nnen die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erh{\"o}ht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Sch{\"a}digungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verf{\"u}gt der K{\"o}rper {\"u}ber einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkapturs{\"a}uren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkapturs{\"a}urederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilit{\"a}tsmarkerklasse der Merkapturs{\"a}uren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker f{\"u}r diverse toxikologische sowie medizinische Endpunkte erh{\"o}ht werden.}, subject = {Metabolom}, language = {de} } @phdthesis{Ziegler2022, author = {Ziegler, Katrin}, title = {Implementierung von verbesserten Landoberfl{\"a}chenparametern und -prozessen in das hochaufgel{\"o}ste Klimamodell REMO}, doi = {10.25972/OPUS-26128}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-261285}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Das Ziel dieser Arbeit war neue Eingangsdaten f{\"u}r die Landoberfl{\"a}chenbeschreibung des regionalen Klimamodells REMO zu finden und ins Modell zu integrieren, um die Vorhersagequalit{\"a}t des Modells zu verbessern. Die neuen Daten wurden so in das Modell eingebaut, dass die bisherigen Daten weiterhin als Option verf{\"u}gbar sind. Dadurch kann {\"u}berpr{\"u}ft werden, ob und in welchem Umfang sich die von jedem Klimamodell ben{\"o}tigten Rahmendaten auf Modellergebnisse auswirken. Im Zuge der Arbeit wurden viele unterschiedliche Daten und Methoden zur Generierung neuer Parameter miteinander verglichen, denn neben dem Ersetzen der konstanten Eingangswerte f{\"u}r verschiedene Oberfl{\"a}chenparameter und den damit verbundenen {\"A}nderungen wurden als zus{\"a}tzliche Verbesserung auch Ver{\"a}nderungen an der Parametrisierung des Bodens speziell in Hinblick auf die Bodentemperaturen in REMO vorgenommen. Im Rahmen dieser Arbeit wurden die durch die verschiedenen {\"A}nderungen ausgel{\"o}sten Auswirkungen f{\"u}r das CORDEX-Gebiet EUR-44 mit einer Aufl{\"o}sung von ca. 50km und f{\"u}r das in dem darin eingebetteten neu definierten Deutschlandgebiet GER-11 mit einer Aufl{\"o}sung von ca. 12km getestet sowie alle {\"A}nderungen anhand von verschiedenen Beobachtungsdatens{\"a}tzen validiert. Die vorgenommenen Arbeiten gliederten sich in drei Hauptteile. Der erste Teil bestand in dem vom eigentlichen Klimamodell unabh{\"a}ngigen Vergleich der verschiedenen Eingangsdaten auf unterschiedlichen Aufl{\"o}sungen und deren Performanz in allen Teilen der Erde, wobei ein besonderer Fokus auf der Qualit{\"a}t in den sp{\"a}teren Modellgebieten lag. Unter Ber{\"u}cksichtigung der Faktoren, wie einer globalen Verf{\"u}gbarkeit der Daten, einer verbesserten r{\"a}umlichen Aufl{\"o}sung und einer kostenlosen Nutzung der Daten sowie verschiedener Validationsergebnissen von anderen Studien, wurden in dieser Arbeit vier neue Topographiedatens{\"a}tze (SRTM, ALOS, TANDEM und ASTER) und drei neue Bodendatens{\"a}tze (FAOn, Soilgrid und HWSD) f{\"u}r die Verwendung im Pr{\"a}prozess von REMO aufbereitet und miteinander sowie mit den bisher in REMO verwendeten Daten verglichen. Auf Grundlage dieser Vergleichsstudien schieden bei den Topographiedaten die verwendeten Datensatz-Versionen von SRTM, ALOS und TANDEM f{\"u}r die in dieser Arbeit durchgef{\"u}hrten REMO-L{\"a}ufe aus. Bei den neuen Bodendatens{\"a}tzen wurde ausgenutzt, dass diese verschiedenen Bodeneigenschaften f{\"u}r unterschiedliche Tiefen als Karten zur Verf{\"u}gung stellen. In REMO wurden bisher alle ben{\"o}tigten Bodenparameter abh{\"a}ngig von f{\"u}nf verschiedenen Bodentexturklassen und einer zus{\"a}tzlichen Torfklasse ausgewiesen und als konstant {\"u}ber die gesamte Modellbodens{\"a}ule (bis ca. 10m) angenommen. Im zweiten Teil wurden auf Basis der im ersten Teil ausgew{\"a}hlten neuen Datens{\"a}tze und den neu verf{\"u}gbaren Bodenvariablen verschiedene Sensitivit{\"a}tsstudien {\"u}ber das Beispieljahr 2000 durchgef{\"u}hrt. Dabei wurden verschiedene neue Parametrisierungen f{\"u}r die bisher aus der Textur abgeleiteten Bodenvariablen und die Parametrisierung von weiteren hydrologischen und thermalen Bodeneigenschaften verglichen. Ferner wurde aufgrund der neuen nicht {\"u}ber die Tiefe konstanten Bodeneigenschaften eine neue numerische Methode zur Berechnung der Bodentemperaturen der f{\"u}nf Schichten in REMO getestet, welche wiederum andere Anpassungen erforderte. Der Test und die Auswahl der verschiedenen Datensatz- und Parametrisierungsversionen auf die Modellperformanz wurde in drei Experimentpl{\"a}ne unterteilt. Im ersten Plan wurden die Auswirkungen der ausgew{\"a}hlten Topographie- und Bodendatens{\"a}tze {\"u}berpr{\"u}ft. Der zweite Plan behandelte die Unterschiede der verschiedenen Parametrisierungsarten der Bodenvariablen hinsichtlich der verwendeten Variablen zur Berechnung der Bodeneigenschaften, der {\"u}ber die Tiefe variablen oder konstanten Eigenschaften und der verwendeten Berechnungsmethode der Bodentemperatur{\"a}nderungen. Durch die Erkenntnisse aus diesen beiden Experimentpl{\"a}nen, die f{\"u}r beide Untersuchungsgebiete durchgef{\"u}hrt wurden, ergaben sich im dritten Plan weitere Parametrisierungs{\"a}nderungen. Alle {\"A}nderungen dieses dritten Experimentplans wurden sukzessiv getestet, sodass der paarweise Vergleich von zwei aufeinanderfolgenden Modelll{\"a}ufen die Auswirkungen der Neuerung im jeweils zweiten Lauf widerspiegelt. Der letzte Teil der Arbeit bestand aus der Analyse von f{\"u}nf l{\"a}ngeren Modelll{\"a}ufen (2000-2018), die zur {\"U}berpr{\"u}fung der Ergebnisse aus den Sensitivit{\"a}tsstudien sowie zur Einsch{\"a}tzung der Performanz in weiteren teilweise extremen atmosph{\"a}rischen Bedingungen durchgef{\"u}hrt wurden. Hierf{\"u}r wurden die bisherige Modellversion von REMO (id01) f{\"u}r die beiden Untersuchungsgebiete EUR-44 und GER-11 als Referenzl{\"a}ufe, zwei aufgrund der Vergleichsergebnisse von Experimentplan 3 selektierte Modellversionen (id06 und id15a f{\"u}r GER-11) sowie die finale Version (id18a f{\"u}r GER-11), die alle vorgenommenen {\"A}nderungen dieser Arbeit enth{\"a}lt, ausgew{\"a}hlt. Es stellte sich heraus, dass sowohl die neuen Topographiedaten als auch die neuen Bodendaten große Differenzen zu den bisherigen Daten in REMO haben. Zudem {\"a}nderten sich die von diesen konstanten Eingangsdaten abgeleiteten Hilfsvariablen je nach verwendeter Parametrisierung sehr deutlich. Dies war besonders gut anhand der Bodenparameter zu erkennen. Sowohl die r{\"a}umliche Verteilung als auch der Wertebereich der verschiedenen Modellversionen unterschieden sich stark. Eine Einsch{\"a}tzung der Qualit{\"a}t der resultierenden Parameter wurde jedoch dadurch erschwert, dass auch die verschiedenen zur Validierung herangezogenen Bodendatens{\"a}tze f{\"u}r diese Parameter deutlich voneinander abweichen. Die finale Modellversion id18a {\"a}hnelte trotz der umfassenden {\"A}nderungen in den meisten Variablen den Ergebnissen der bisherigen REMO-Version. Je nach zeitlicher und r{\"a}umlicher Aggregation sowie unterschiedlichen Regionen und Jahreszeiten wurden leichte Verbesserungen, aber auch leichte Verschlechterungen im Vergleich zu den klimatologischen Validationsdaten festgestellt. Gr{\"o}ßere Ver{\"a}nderungen im Vergleich zur bisherigen Modellversion konnten in den tieferen Bodenschichten aufgezeigt werden, welche allerdings aufgrund von fehlenden Validationsdaten nicht beurteilt werden konnten. F{\"u}r alle 2m-Temperaturen konnte eine tendenzielle leichte Erw{\"a}rmung im Vergleich zum bisherigen Modelllauf beobachtet werden, was sich einerseits negativ auf die ohnehin durchschnittlich zu hohe Minimumtemperatur, aber andererseits positiv auf die bisher zu niedrige Maximumtemperatur des Modells in den betrachteten Gebieten auswirkte. Im Niederschlagssignal und in den 10m-Windvariablen konnten keine signifikanten {\"A}nderungen nachgewiesen werden, obwohl die neue Topographie an manchen Stellen im Modellgebiet deutlich von der bisherigen abweicht. Des Weiteren variierte das Ranking der verschiedenen Modellversionen jeweils nach dem angewendeten Qualit{\"a}tsindex. Um diese Ergebnisse besser einordnen zu k{\"o}nnen, muss ber{\"u}cksichtigt werden, dass die neuen Daten f{\"u}r Modellgebiete mit 50 bzw. 12km r{\"a}umlicher Aufl{\"o}sung und der damit verbundenen hydrostatischen Modellversion getestet wurden. Zudem sind vor allem in Fall der Topographie die bisher enthaltenen GTOPO-Daten (1km Aufl{\"o}sung) f{\"u}r die Aggregation auf diese gr{\"o}bere Modellaufl{\"o}sung geeignet. Die bisherigen Bodendaten stoßen jedoch mit 50km Aufl{\"o}sung bereits an ihre Grenzen. Zus{\"a}tzlich ist zu beachten, dass nicht nur die Mittelwerte dieser Daten, sondern auch deren Subgrid-Variabilit{\"a}t als Variablen im Modell f{\"u}r verschiedene Parametrisierungen verwendet werden. Daher ist es essentiell, dass die Eingangsdaten eine deutlich h{\"o}here Aufl{\"o}sung bereitstellen als die zur Modellierung definierte Aufl{\"o}sung. F{\"u}r lokale Klimasimulationen mit Aufl{\"o}sungen im niedrigen Kilometerbereich spielen auch die Vertikalbewegungen (nicht-hydrostatische Modellversion) eine wichtige Rolle, die stark von der Topographie sowie deren horizontaler und vertikaler {\"A}nderungsrate beeinflusst werden, was die in dieser Arbeit eingebauten wesentlich h{\"o}her aufgel{\"o}sten Daten f{\"u}r die zuk{\"u}nftige Weiterentwicklung von REMO wertvoll machen kann.}, subject = {Klimamodell}, language = {de} } @phdthesis{Reinhard2023, author = {Reinhard, Sebastian}, title = {Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks}, doi = {10.25972/OPUS-31695}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-316959}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures.}, subject = {Mikroskopie}, language = {en} } @phdthesis{Shkumatov2011, author = {Shkumatov, Alexander V.}, title = {Methods for hybrid modeling of solution scattering data and their application}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-65044}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {Small-angle X-ray scattering (SAXS) is a universal low-resolution method to study proteins in solution and to analyze structural changes in response to variations of conditions (pH, temperature, ionic strength etc). SAXS is hardly limited by the particle size, being applicable to the smallest proteins and to huge macromolecular machines like ribosomes and viruses. SAXS experiments are usually fast and require a moderate amount of purified material. Traditionally, SAXS is employed to study the size and shape of globular proteins, but recent developments have made it possible to quantitatively characterize the structure and structural transitions of metastable systems, e.g. partially or completely unfolded proteins. In the absence of complementary information, low-resolution macromolecular shapes can be reconstructed ab initio and overall characteristics of the systems can be extracted. If a high or low-resolution structure or a predicted model is available, it can be validated against the experimental SAXS data. If the measured sample is polydisperse, the oligomeric state and/or oligomeric composition in solution can be determined. One of the most important approaches for macromolecular complexes is a combined ab initio/rigid body modeling, when the structures (either complete or partial) of individual subunits are available and SAXS data is employed to build the entire complex. Moreover, this method can be effectively combined with information from other structural, computational and biochemical methods. All the above approaches are covered in a comprehensive program suite ATSAS for SAXS data analysis, which has been developed at the EMBL-Hamburg. In order to meet the growing demands of the structural biology community, methods for SAXS data analysis must be further developed. This thesis describes the development of two new modules, RANLOGS and EM2DAM, which became part of ATSAS suite. The former program can be employed for constructing libraries of linkers and loops de novo and became a part of a combined ab initio/rigid body modeling program CORAL. EM2DAM can be employed to convert electron microscopy maps to bead models, which can be used for modeling or structure validation. Moreover, the programs CRYSOL and CRYSON, for computing X-ray and neutron scattering patterns from atomic models, respectively, were refurbished to work faster and new options were added to them. Two programs, to be contributed to future releases of the ATSAS package, were also developed. The first program generates a large pool of possible models using rigid body modeling program SASREF, selects and refines models with lowest discrepancy to experimental SAXS data using a docking program HADDOCK. The second program refines binary protein-protein complexes using the SAXS data and the high-resolution models of unbound subunits. Some results and conclusions from this work are presented here. The developed approaches detailed in this thesis, together with existing ATSAS modules were additionally employed in a number of collaborative projects. New insights into the "structural memory" of natively unfolded tau protein were gained and supramodular structure of RhoA-specific guanidine nucleotide exchange factor was reconstructed. Moreover, high resolution structures of several hematopoietic cytokine-receptor complexes were validated and re-modeled using the SAXS data. Important information about the oligomeric state of yeast frataxin in solution was derived from the scattering patterns recorded under different conditions and its flexibility was quantitatively characterized using the Ensemble Optimization Method (EOM).}, subject = {R{\"o}ntgen-Kleinwinkelstreuung}, language = {en} }