Institut für Geographie und Geologie
Refine
Has Fulltext
- yes (360)
Year of publication
Document Type
- Journal article (205)
- Doctoral Thesis (100)
- Book (35)
- Book article / Book chapter (6)
- Master Thesis (6)
- Report (5)
- Working Paper (2)
- Habilitation (1)
Keywords
- remote sensing (38)
- Einzelhandel (30)
- Fernerkundung (23)
- climate change (18)
- Deutschland (15)
- MODIS (14)
- Sentinel-2 (14)
- time series (14)
- Germany (12)
- Nachhaltigkeit (12)
Institute
- Institut für Geographie und Geologie (360)
- Theodor-Boveri-Institut für Biowissenschaften (9)
- Institut für Altertumswissenschaften (4)
- Graduate School of Science and Technology (3)
- Institut für Informatik (2)
- Frauenklinik und Poliklinik (1)
- Institut für Klinische Epidemiologie und Biometrie (1)
- Julius-von-Sachs-Institut für Biowissenschaften (1)
- Medizinische Klinik und Poliklinik I (1)
- Neuphilologisches Institut - Moderne Fremdsprachen (1)
Schriftenreihe
Sonstige beteiligte Institutionen
- The Italian Federation of Parks and Nature Reserves (3)
- ALPARC - The Alpine Network of Protected Areas (2)
- Eurac research (2)
- Salzburg Institute for Regional Planning and Housing (2)
- Urban Planning Institute of the Republic of Slovenia (2)
- ALPARC - Das Netzwerk Alpiner Schutzgebiete (1)
- Albert-Ludwigs-Universität Freiburg (1)
- Deutsches Klimaservice Zentrum (GERICS) (1)
- Deutsches Zentrum für Luft & Raumfahrt (DLR) (1)
- Deutsches Zentrum für Luft- und Raumfahrt (1)
ResearcherID
- I-5818-2014 (1)
EU-Project number / Contract (GA) number
- 308377 (2)
- 20-3044-2-11 (1)
- 227159 (1)
- 243964 (1)
- 776019 (1)
- 818182 (1)
- 834709 (1)
- LIFE12 BIO/AT/000143 (1)
- LIFE20 NAT/AT/000049 (1)
Im Rahmen der vorliegenden Arbeit wurden die Druck-Temperatur-Bildungsbedingungen metapelitischer Gesteine aus verschiedenen lithostratigraphischen Formationen des Spessart-Kristallins untersucht. Geologisch stellt das Spessart-Kristallin einen Teil der Mitteldeutschen Kristallinzone dar, die sich innerhalb des Orogens der mitteleuropäischen Varisziden am nördlichen Rand des Saxothuringikums erstreckt. Das wesentliche Ziel der Untersuchungen bestand darin, mittels phasenpetrologischer und geothermobarometrischer Methoden die Metamorphose-Entwicklung des Spessart-Kristallins zu rekonstruieren und in Beziehung zur geodynamischen Geschichte der Varisziden zu setzen. Der Schwerpunkt der Arbeiten lag auf den Staurolith-Glimmerschiefern der Mömbris-Formation. Darüber hinaus wurden Gesteine der Geiselbach-, Alzenau- und Elterhof-Formation einbezogen. Als Grundlage für die Phasenpetrologie wurden petrographische, mineralchemische und geochemische Untersuchungen durchgeführt. Prograde Metamophose-Zonen können im Spessart-Kristallin nicht kartiert werden. Die Protolithe der untersuchten Metasedimente stellten vermutlich häufig saure bis intermediäre Magmatite dar, für die Geiselbach- und Elterhof-Formation wohl auch quarzreiche Sedimente. Die geo¬chemischen Daten lassen für die Mömbris-, Alzenau- und Elterhof-Formation Grauwacken bis Pelite als sedimentäre Edukte der Metamorphite annehmen, die Gesteine der Geiselbach-Formation könnten auf Arkosen zurückgehen. Eine Ablagerung der sedimentären Edukte im Bereich eines Kontinen¬talen Inselbogens bis Aktiven Kontinentalrandes ist für die Mömbris- und Alzenau-Formation wahrscheinlich, für die Geiselbach- und Elterhof-Formation liegt kein eindeutiges Bild vor. Zur Abschätzung der Metamorphosebedingungen wurden verschiedene Phasendiagramme verwendet, die auf den metapelitischen Modellsystemen KMnFMASH (K2O-MnO-FeO-MgO-Al2O3-SiO2-H2O) und KFMASH (K2O-FeO-MgO-Al2O3-SiO2-H2O) basieren, insbesondere P-T-Pseudoschnitte und T-X-Schnitte. Weiterhin wurden konventionelle Geothermobarometer berechnet und Abschätzungen mittels intern-konsistenter thermodynamischer Datensätze vorgenommen. Die theoretischen Grundlagen dieses phasenpetrologischen Ansatzes werden kurz erläutert. Für den Metamorphose-Höhepunkt der Gesteine ergaben sich Temperaturen im Bereich von ca. 600 - 615 °C und Drucke um 6.5 - 8 kbar. Diese Daten weisen eine recht gute Übereinstimmung zu den bisher in der Literatur bekannten Werten für das Spessart-Kristallin auf. Im Anschluß an die amphibolitfazielle Metamorphose wurden die Gesteine mehr oder minder stark retrograd überprägt. Anzeichen für eine polymetamorphe Entwicklung dieses Teils der Mitteldeutschen Kristallinzone liegen nicht vor. Die rekonstruierten P-T-Pfade bzw. P-T-Pfad-Segmente dokumentieren eine recht einheitliche metamorphe Entwicklung im Uhrzeigersinn („clockwise“) und weisen auf eine Barrow-type Metamorphose hin. Die P-T-Pfade der meisten Proben zeigen einen charakteristischen Verlauf mit einer Phase nahezu isothermaler Dekompression. Demgegenüber konnte für einige Disthen-führende Proben ein etwas flacherer P-T-Pfad mit einer offenbar geringfügig stärker Temperatur-betonten Entwicklung differenziert werden. Das Metamorphose-Maximum ist für diese Gesteine durch Temperaturen von ca. 620 - 630 °C und Drucke von etwa 6 - 8 kbar gekennzeichnet. Damit wird eine leichte Zunahme des Metamorphosegrades nach Süden innerhalb der Mömbris-Formation, die verschiedentlich vermutet worden war, nachgewiesen. Die neu erarbeiteten Pfade sind aufgrund des methodischen Ansatzes, der die Zusammensetzung und Mineralparagenese der jeweiligen Probe berücksichtigt, im Vergleich zu früheren Arbeiten deutlich besser abgesichert. Sie dokumentieren erstmals in dieser Form die Druck-Temperatur-Geschichte des Spessart-Kristallins. Die P-T-Pfade lassen auf eine relativ schnelle Versenkung der Gesteine bei einem recht niedrigen geothermischen Gradienten und eine anschließende rasche Heraushebung aus einer Tiefe von etwa 25 - 28 km auf etwa 15 - 18 km bei einer eher geringen Temperaturabnahme schließen. Die damit für das Spessart-Kristallin dokumentierte Entwicklung fügt sich gut in das aktuelle geotektonische Modell einer Kollision eines passiven Kontinentalrandes mit einem kontinentalen Bogen ein und steht in Analogie zur derzeit gängigen Vorstellung, die Mitteldeutsche Kristallinschwelle repräsentiere einen variszischen aktiven Plattenrand.
Warum sind manche Unternehmen und warum manche Regionen innovativer als andere? Zahlreichen wissenschaftlichen Beiträgen zufolge ist die Antwort auf diese Frage vom vorhandenen Humankapital und dem vorhandenen und verfügbaren Wissen abhängig. Innovationen werden von Menschen vorangetrieben. Warum scheinen die Mitarbeiter mancher Unternehmen innovativer zu sein, als die Mitarbeiter anderer Unternehmen? Diese Frage gewinnt angesichts zunehmender Dynamik, einem intensiveren Wettbewerb und einem rascheren Wertewandel im heutigen Unternehmensumfeld an praktischer und theoretischer Relevanz. Tatsächlich erhöht der immer schneller werdende technologische, gesellschaftliche und wirtschaftliche Wandel die bei Innovationsvorhaben ohnehin schon stetig steigende Aufgabenkomplexität und Projektunsicherheit. Allerdings birgt dieser Wandel nicht nur Unsicherheit, sondern schafft in zunehmendem Maße unternehmerische Chancen, die sowohl von Unternehmern und Gründern als auch von Mitarbeitern genutzt werden können. Viele innovationstheoretische Untersuchungen konzentrieren sich auf eine faktorielle Darstellung von erfolgswirksamen Rahmenbedingungen, die es herzustellen gilt, um ein ‚gesundes’ Milieu zu schaffen, in dem Menschen Unternehmen gründen und Innovationen vorantreiben. Verhaltensorientierte Studien im Kontext der Innovations- und Gründungsforschung zeigen, dass gerade Faktoren, die im Zusammenhang mit der Person stehen, einen erheblichen Einfluss auf den Innovations- und Gründungserfolg haben. Um in diesem Kontext eine Ursache für Regionalentwicklung zu finden, verbleibt die Suche nicht bei einer rein auf Faktorausstattung reduzierten Erklärung. Dagegen rückt die Studie den Mikrofaktor Humankapital im Zusammenhang zur Innovationsentwicklung in den Mittelpunkt. Sie leistet damit einen Beitrag zum Entstehungsprozess von Innovationen, indem empirisch untersucht wird, welche unternehmerischen Kompetenzen in einem Innovationsprozess benötigt werden und welche daraus resultierenden Handlungsstrategien den Erfolg der Innovationsteams bedingen.
Beobachtung des Hydroxyl (OH*)-Airglow: Untersuchung von Klimasignalen und atmosphärischen Wellen
(2009)
Die obere Mesosphäre ist die Atmosphärenschicht, die von etwa 80-100 km Höhe reicht. Aufgrund der geringen Luftdichte – sie ist fünf bis sechs Größenordnungen geringer als an der Erdoberfläche – und der effektiven Abstrahlung von Wärme in den Weltraum („Strahlungskühlung“) wird generell angenommen, dass Klimasignale in diesem Höhenbereich sehr viel ausgeprägter sein sollten als in den unteren Atmosphärenschichten. Es wird daher erwartet, dass Beobachtungen in dieser Region der Atmosphäre eine frühzeitige Erkennung von Klimatrends mit guter statistischer Signifikanz erlauben sollten. Daten, die von diesen Messungen bereitgestellt werden, sind wichtig für die Weiterentwicklung und Verbesserung numerischer Klimamodelle, die die mittlere Atmosphäre abdecken. Dieser Höhenbereich der Atmosphäre ist messtechnisch jedoch nur schwer zugänglich. Die Dichte der Messnetze ist keinesfalls vergleichbar mit denen für die Beobachtung etwa der Stratosphäre oder der Troposphäre; Routinemessungen gibt es kaum. Direkte Messungen werden mit raketengestützten Instrumenten, indirekte Messungen über satellitengestützte und bodengebundene Techniken, wie z.B. Lidar, Radar und Spektroskopie, vorgenommen. Die vorliegende Arbeit basiert auf Daten des „GRound-based Infrared P-branch Spectrometer (GRIPS)“, das Infrarot-Emissionen aus der sogenannten OH*-Airglow-Schicht misst, aus denen die Temperatur in ~87 km Höhe abgeleitet werden kann. Neben anthropogenen Einflüssen auf das Klima gibt es natürliche Effekte, die Temperaturschwankungen in der oberen Mesosphäre verursachen können. Für die Interpretation experimenteller Daten ist das Verständnis dieser natürlichen Quellen der Variabilität wichtig. Daher wird mithilfe einer 25-jährigen Zeitreihe der über Wuppertal (51,3°N, 7,2°O) gemessenen OH*-Temperaturen die potentielle Wechselwirkung der Dynamik der oberen Mesosphäre mit der Sonnenaktivität untersucht. Eine Korrelation der Aktivität planetarer Wellen mit dem solaren Magnetfeld (22-jähriger solarer Hale-Zyklus) konnte festgestellt werden. Als möglicher physikalischer Mechanismus wird vorgeschlagen, dass der Ringstrom im Erdinnern und damit das interne Magnetfeld der Erde durch das solare Magnetfeld moduliert wird, was wiederum zu Modulationen des totalen Magnetfeldes im Erdinnern über die Kopplung elektromagnetischer Drehmomente zwischen dem Erdkern und dem Erdmantel führt. Als Folge sollte die Rotationsperiode der Erde – und damit die Aktivität planetarer Wellen – durch die solare Magnetfeldstärke moduliert sein. Der Aktivität planetarer Wellen ist zudem eine quasi-zweijährige Schwingung überlagert. Zumeist ist die Wellenaktivität verstärkt, wenn sich die Windrichtung des mittleren zonalen Windes der äquatorialen Quasi-Biennalen Oszillation (QBO) von einem Westwind zu einem Ostwind umkehrt. Darüber hinaus konnte festgestellt werden, dass die unregelmäßige Verteilung der Sonnenflecken auf der Sonnenscheibe aufgrund der Rotation der Sonne zu Fluktuationen der OH*-Temperatur führt. Häufig beobachtet werden ausgeprägte spektrale Komponenten in den OH*-Temperaturfluktuationen im Periodenbereich von 27 bis 31 Tagen. Diese Signaturen werden vorläufig auf die differentielle Rotation der Sonne zurückgeführt. Dynamische Prozesse wie z.B. atmosphärische Schwerewellen sind von großer Bedeutung für den Energiehaushalt der oberen Mesosphäre / unteren Thermosphäre (MLT-Region). Daher müssen sie in Klimamodellen berücksichtigt werden, was derzeit jedoch nur durch einfache Parametrisierungen bewerkstelligt werden kann. Um eine möglichst realistische Modellierung der großräumigen Zirkulationssysteme zu ermöglichen, ist die Kenntnis der Strukturfunktionen der Schwerewellen sowie ihre Quell- und Senkenstärken in Raum und Zeit erforderlich. Messungen von Schwerewellen sind daher unabdingbar. In der vorliegenden Arbeit werden im Rahmen von Fallstudien Temperatursignaturen untersucht, wie sie von Schwerewellen erzeugt werden. Verwendet werden hierfür zeitlich hoch aufgelöste OH*-Temperaturzeitreihen aufgenommen am Hohenpeißenberg (47,8°N, 11,0°O) und an der Zugspitze (47,5°N, 11,0°O). Durch den Alpenkamm induzierte Schwerewellen können identifiziert und Schwerewellenparameter wie beispielsweise die Ausbreitungsrichtung oder die Phasengeschwindigkeit quantifiziert werden. Messungen, aufgenommen von Bord des deutschen Forschungsschiffes „Polarstern“ im Golf von Biskaya (um 48°N, 6°O), werden mit satellitenbasierten Beobachtungen kombiniert. Es wird gezeigt, dass Schwerewellen, die von einem atlantischen Zyklon erzeugt werden, die Temperatur in der Mesopausenregion beeinflussen können. Das GRIPS-System ist ferner prinzipiell zur schnellen Erkennung von Naturgefahren wie z.B. Tsunamis, Erdbeben oder Vulkanaktivität geeignet, da solche Ereignisse Infraschall erzeugen, der wiederum erkennbare Temperaturfluktuationen in der OH*-Airglow-Schicht verursacht. Am Beispiel des Sumatra-Tsunamis von 2004 wird diese Möglichkeit quantitativ diskutiert.
The main purpose of volcano-seismology concerns the qualitative and quantitative description of one or more unknown seismic source(s) located at some unknown depth beneath a volcano. Even if many different volcanoes show similar seismic signal characteristics, up to now it was not possible to find a standard seismic source model for volcanoes, as the double-couple in earthquake seismology. Volcanoes with a continuous activity, like Stromboli (Italy), represent for the volcano seismologist a perfect natural laboratory to address this question. This thesis treats the study of explosion-quakes and volcanic tremor recorded on Stromboli in a broadband frequency range, and discusses the location and the possible mechanisms of the seismic source(s). Seismic and infrasonic recordings of explosion-quake from Stromboli showed that the high-frequency phase propagates with a velocity of approximately 330 m/s. The seismic source can be explained as an explosion at the top of the magma column generated by rising gas bubbles. The seismic P-wave and the air-wave are both generated in the same point at the same time. The different path lengths and velocities for the seismic wave and the air-wave result in a difference in arrival times dt, that could be used to deduce the magma level and sound speed in the eruption column inside the conduit. Stations installed near the active crater reveal that infrasonic and seismic recordings of the short-period tremor (> 1 Hz) share the same spectral content and show similar energy fluctuations. Therefore, the short-period volcanic tremor at Stromboli originates from the continuous out-bursting of small gas bubbles in the upper part of the magmatic column. The spectrum of the long-period tremor recorded at Stromboli consists of three main peaks with periods at 4.8 s, 6 s and 10 s, and amplitudes varying with the regional meteorological situation. Hence, they are not generated by a close volcanic source but rather by ocean microseisms (OMS). The passage of a local cyclone seems to be the seismic source for spectral energy at 4.8 s and 10 s, which represent the Double Frequency and the Primary Frequency of the OMS, respectively. Concerning the 6 s peak, a cyclone near the British Isles could act as a seismic source. Seismic data from the first broadband array deployed on Stromboli showed surprisingly simple waveforms, indicating an initially contracting source mechanism. The analysis of particle motion and the application of seismic array techniques allowed the location of a seismic source in the shallow part of the volcano. Eruption parameters and seismic source characteristics of the April 5, 2003 Stromboli eruption have been estimated using different inversion approaches. The paroxysm was triggered by a shallow slow thrust-faulting dislocation event with a moment magnitude of Mw = 3.0 and possibly associated with a crack that formed previously by dike extrusion. At least one blow-out phase during the paroxysmal explosion could be identified from seismic signals with an equivalent moment magnitude of Mw = 3.7. It can be represented by a vertical linear vector dipole and two weaker horizontal linear dipoles in opposite direction, plus a vertical force. Seismic measurements performed during controlled and reproducible blow-out experiments with a gas volume entrapped in basaltic melt revealed the following: Monochromatic seismic signals suggest a blow-out in a more ductile regime, whereas broader frequency content indicates rupture in a more brittle environment. The longer the crucible, the weaker the seismic signals. An increase in pressure results in a stronger fragmentation, but not in a higher ejection velocity of the plug neither in a higher seismic amplitude. Even if the very long period observations like the tilt signal could not be simulated in the laboratory, the blow-out experiments simulate very well the short-period seismic signals recorded at Stromboli volcano.
Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%.
Für eine dauerhaft gesicherte und umweltgerechte Energieerzeugung kommt den erneuerbaren Energien in Zukunft eine immer größere Bedeutung zu. Dies stellt eine große Herausforderung für die Entwicklung zukünftiger Energiesysteme dar, da erneuerbare Energieträger zeitlich und räumlich zumeist hoch variabel zur Verfügung stehen. Eine effiziente Integration solar erzeugter Energie in das bestehende Energieversorgungsnetz ist daher nur möglich, wenn verlässliche Nahe-Echtzeit-Vorhersagen der am Erdboden verfügbaren Einstrahlung und ein- bis dreitägige Vorhersagen von Energieproduktion und -nachfrage zur Verfügung stehen. Die vorliegende Arbeit beschäftigt sich mit der Vorhersage der solaren Strahlung für die nächsten Tage und Stunden im Hinblick auf Anwendungen in der Energiewirtschaft. Der dominante Atmosphärenparameter für die Abschwächung der solaren Einstrahlung ist die Bewölkung. Das größte wirtschaftliche Potential der Solarenergie liegt jedoch in Zeiträumen und Regionen, in denen wenig Bewölkung auftritt. Im wolkenlosen Fall beeinflussen vor allem Aerosole, feste und flüssige Partikel in der Atmosphäre, die direkte und diffuse Strahlung am Erdboden. Aerosole sind durch eine hohe zeitliche und räumliche Variabilität gekennzeichnet, die die Bestimmung ihrer raumzeitlichen Verteilung und damit ihres Einflusses auf die Strahlung erschwert und einen hohen Aufwand zu ihrer Prognose erforderlich macht. Am Beispiel eines fünfmonatigen europäischen Datensatzes (Juli-November 2003) werden Prognosen der aerosoloptischen Tiefe bei 550 nm (AOT550) untersucht, die aus Aerosolvorhersagen eines Chemie-Transport-Modells stammen. Es zeigt sich, dass im Vergleich mit Bodenmessungen die Aerosolprognosen mit einer mittleren Unterschätzung von -0,11 und einem RMSE von 0,20 die geforderte Genauigkeit nicht ganz erreichen. Dabei stellen insbesondere die unregelmäßig auftretenden Saharastaubausbrüche über dem zentralen Mittelmeer eine im Modell bisher nicht erfassbare Quelle großer Ungenauigkeiten in der AOT- und damit auch in der Strahlungsvorhersage dar. Entsprechend der hohen regionalen Aerosol-Variabilität finden sich zudem signifikante Unterschiede zwischen den Regionen, zum Beispiel eine deutliche Unterschätzung des Aerosolaufkommens in der stark industriell belasteten Po-Ebene Norditaliens sowie gute Entsprechungen in abgelegenen Gegenden Nordeuropas. Basierend auf dieser Aerosol-Prognose und unter Einbeziehung weiterer Fernerkundungsdaten (Bodenalbedo, Ozon) und Parametern aus der numerischen Wetterprognose (Wasserdampf, Wolken) wird ein Prototyp für ein Vorhersagesystem der Solarstrahlung konzipiert und vorgestellt: das AFSOL-System (Aerosol-based Forecasts of Solar Irradiance for Energy Applications). An Hand der fünfmonatigen Testepisode wird das AFSOL-System mit Vorhersagen des Europäischen Zentrums für Mittelfrist-Wettervorhersage (ECMWF), mit satellitenbasierten Beobachtungen der Solarstrahlung (Meteosat-7) und mit Bodenmessungen der Solarstrahlung verglichen. Für den wolkenlosen Fall erzielt das AFSOL-Modellsystem eine deutliche Verbesserung der Direktstrahlungsprognosen gegenüber den ECMWF-Vorhersagen, mit einer Reduktion des relativen Bias von -26% auf +11% und des relativen RMSE von 31% auf 19%. Dies kann auf die verbesserte Beschreibung des atmosphärischen Aerosols zurückgeführt werden, die sich im Vergleich zu den am ECMWF genutzten AOT-Klimatologien ergibt, auch wenn insbesondere bei der Behandlung von Wüstenstaubepisoden weiterhin Probleme auftreten. Auch die Globalstrahlungsprognosen erreichen im wolkenlosen Fall eine höhere Genauigkeit als die operationell verfügbaren ECMWF-Vorhersagen, was sich in einer Verringerung des relativen Bias von -10% zu +5% sowie des relativen RMSE von 12% zu 7% zeigt. Im bewölkten Fall jedoch können die Vorhersagen des AFSOL-Systems erhebliche Ungenauigkeiten aufweisen, die sich auf Grund von Problemen bei der Wolkenprognose des zu Grunde liegenden numerischen Wettervorhersagemodells ergeben. Abschließend wird in einer Fallstudie zur Verwendung der Vorhersagen für die optimale Betriebsführung eines solarthermischen Kraftwerks in Spanien beispielhaft gezeigt, dass die Nutzung der AFSOL-Prognose im wolkenlosen Fall eine deutliche Gewinnsteigerung bei der Einspeisung ins öffentliche Stromnetz durch den Handel an der spanischen Strombörse ermöglicht.
Vulnerabilitätsabschätzung der erdbebengefährdeten Megacity Istanbul mit Methoden der Fernerkundung
(2008)
Urbane Räume zählen zu den dynamischsten Regionen dieser Erde. Besonders Megacities zeigen bereits heute Trends und Dimensionen der Urbanisierung, deren regionale und globale Folgen noch kaum vorhersehbar, und erst ansatzweise erforscht sind. Die enorme räumliche Konzentration von Menschen, Werten und Infrastruktur auf engem Raum ist für diese urbanen Räume die Grundlage einer hohen Verwundbarkeit (Vulnerabilität). Gerade im Kontext von Naturgefahren potenzieren sich die Risiken, die durch den schnellen strukturellen, sozioökonomischen und ökologischen Wandel entstehen. Das übergeordnete Ziel dieser Dissertation ist daher die Analyse von Potentialen der Fernerkundung zur Abschätzung von Risiko und Vulnerabilität am Beispiel der erdbebengefährdeten Megacity Istanbul. Um die Zielstellung systematisch zu verfolgen, wird ein konzeptioneller, thematischer Leitfaden entwickelt. Dieser besteht aus einer Systematisierung der abstrakten Überbegriffe ‚Risiko’, ‚Vulnerabilität’ und ‚Gefährdung’ in einem Indikatorensystem. Konkrete, messbare Indikatoren für das System ‚urbaner Raum’ erlauben eine quantitative Abschätzung von Einzelaspekten, addieren sich aber auch zu einer ganzheitlichen Perspektive des Risikos. Basierend auf dieser holistischen Idee, erlaubt das Indikatorensystem Potentiale, aber auch Limitierungen der Fernerkundungsdaten und Bildverarbeitungsmethoden für die Abschätzung von Risiko und Vulnerabilität zu identifizieren. Anhand des Leitfadens werden zielgerichtet Methoden zur automatisierten Extraktion räumlicher Informationen aus Fernerkundungsdaten entwickelt. Ein objektorientierter, modularer Klassifikationsansatz ermöglicht eine Landbedeckungsklassifikation höchst aufgelöster Daten im urbanen Raum. Dieses modulare Rahmenwerk zielt auf eine einfache und schnelle Übertragbarkeit auf andere höchst auflösende Sensoren bzw. andere urbane Strukturen. Zur Anpassung der Methoden werden neben IKONOS Daten der Megacity Istanbul und der erdbeben- und tsunamigefährdeten Küstenstadt Padang in Indonesien, Quickbird Daten für die zukünftige Megacity Hyderabad in Indien getestet. Die Resultate zeigen die detaillierte und hochgenaue Erfassung kleinräumiger, heterogener urbaner Objekte mit Genauigkeiten von über 80 %. Auch mittel aufgelöste Landsat Daten werden mit einem objektorientierten modularen Rahmenwerk mit hohen Genauigkeiten klassifiziert, um komplementäre temporale und gesamtstädtische Analysen hinzuzufügen. Damit wird eine aktuelle, flächendeckende und multiskalige Informationsbasis generiert, die als Ausgangsprodukt zur Analyse urbaner Vulnerabilität dient. Basierend auf diesen Informationsebenen werden dem konzeptionellen Leitfaden folgend Indikatoren zur Abschätzung von Vulnerabilität und Risiko extrahiert. Der Fokus ist dabei die Entwicklung von Methoden zur automatisierten, interpreterunabhängigen Ableitung vulnerabilitäts- und gefährdungsrelevanter Indikatoren. Die physische Analyse des kleinräumigen urbanen Raums konzentriert sich dabei auf die Typisierung des Gebäudebestandes mit Parametern wie Dichte, Höhe, Alter, Größe, Form sowie Dachtyp. Indirekt wird zudem mittels dieser Parameter die Bevölkerungsdichteverteilung abgeleitet. Weitere Standortfaktoren ergeben sich aus Lageparametern wie Distanzen zu Hauptverkehrsachsen, Freiflächenanalysen oder der Geländeoberfläche. Schließlich führt die Vulnerabilitätsabschätzung den modellhaften, thematischen Leitfaden mit den abgeleiteten Indikatoren zusammen. Dazu erfolgt eine Normierung der unterschiedlichen abgeleiteten Indikatoren auf einen einheitlichen Vulnerabilitätsindex. Dieser zielt auf eine räumliche und zeitliche Vergleichbarkeit und die Möglichkeit, die vielfältigen Informationsebenen zu kombinieren. Damit wird das Zusammenspiel verschiedenster Indikatoren simuliert und erlaubt daraus Identifizierung und Lokalisierung von Brennpunkten im Desasterfall. Über das fernerkundliche Potential hinaus, werden die Resultate in einer interdisziplinären Methode zu einem synergetischen Mehrwert erhoben. Statt einer quantitativen Abschätzung der physischen Gebäudeparameter, ermöglicht eine Methode des Bauingenieurwesens in Kombination mit der fernerkundlichen Gebäudetypisierung eine Abschätzung der wahrscheinlichen Schadensanfälligkeit von Gebäuden im Falle eines Erdbebens. Exemplarisch wird das Potential der Resultate für Entscheidungsträger anhand eines Erdbebensszenarios aufgezeigt. Risiko und Vulnerabilität lassen sich dadurch räumlich sowohl nach betroffenen Häusern und betroffenen Menschen als auch nach räumlichen Standortfaktoren wie beispielsweise Zugänglichkeit quantifizieren. Dies ermöglicht gezielt präventiv zu agieren oder während und nach einem Desaster gezieltes Krisenmanagement zu betreiben. Im Hinblick auf die zentrale Fragestellung dieser Dissertation lässt sich resümieren, dass die Aktualität sowie die geometrische und thematische Qualität der Resultate aus Fernerkundungsdaten, den Anforderungen des komplexen, kleinräumigen und dynamischen urbanen Raums gerecht werden. Die Resultate führen zu der Erkenntnis, dass das Potential der Fernerkundung zur Abschätzung von Vulnerabilität und Risiko vor allem in der direkten Ableitung physischer Indikatoren sowie der indirekten Ableitung demographischer Parameter liegt.
Weltweit sind Trockengebiete in ständiger Veränderung, verursacht durch natürliche klimatische Schwankungen und oftmals durch Prozesse der Landdegradation. Auch weisen die meisten semi-ariden Naturräume eine große räumliche Heterogenität auf, hervorgerufen durch ein kleinräumiges Mosaik aus Gräsern, kleineren Sträuchern und Bereichen offenliegenden Bodens. Die Dichte der Vegetation wird primär vom pflanzenverfügbaren Wasser bestimmt, aber auch der Entwicklungs- und Degradationszustand der Böden sowie anthropogen bedingte Faktoren spielen hierbei eine Rolle. Zur Charakterisierung und Kartierung der Vegetation sowie zur Bewertung des Bodenerosionsrisikos und des Degradationszustands hat sich die Erhebung der Bedeckungsgrade von vitaler, photosynthetisch aktiver Vegetation (PV), von abgestorbener oder zeitweise vertrockneter und somit nicht photosynthetisch aktiver Vegetation (NPV) sowie von offenliegendem Boden als zweckmäßig herausgestellt. Die Nutzung der Fernerkundung für diese Aufgabe erfolgt zumeist nur für kleinmaßstäbige Kartierungen und – im Falle von Multispektralsensoren – unter Vernachlässigung nicht-photosynthetisch aktiver Vegetation. Die räumliche Variabilität der Vegetation-Boden-Mosaike liegt oftmals in der Größenordnung von wenigen Metern und somit unterhalb des räumlichen Auflösungsvermögens von Fernerkundungssystemen. Um dennoch die verschiedenen Anteile innerhalb eines Pixels identifizieren und quantifizieren zu können, sind Methoden der Subpixel-Klassifikation notwendig. In dieser Arbeit wird eine Methodik zur verbesserten und automatisierbaren Ableitung von Bodenbedeckungsgraden in semi-ariden Naturräumen vorgestellt. Hierzu wurde ein Verfahren zur linearen spektralen Entmischung in Form einer Multiple Endmember Spectral Mixture Analysis (MESMA) entwickelt und umgesetzt. Durch diese Methodik kann explizit die spektrale Variabilität von Vegetation und Boden in das Mischungsmodellmiteinbezogen werden, und quantitative Anteile für die funktionalen Klassen PV, NPV und Boden innerhalb eines Pixels erfasst werden. Durch die räumliche Kartierung der verwendeten EM wird weiterhin eine thematische Klassifikation erreicht. Die hierfür benötigten Informationen können – wie im Falle der Spektren reiner Materialien (EM-Spektren) – aus den Bilddaten selbst abgeleitet werden, oder können – wie ein Geländemodell und die Information über den Scanwinkel – im Zuge der Vorprozessierung aus weiteren Datenquellen erzeugt werden. Hinsichtlich der automatisierten EM-Ableitung wird eine zweistufige Methodik eingesetzt, welche auf einer angepassten Version des Sequential Maximum Angle Convex Cone (SMACC)-Verfahrens sowie der Analyse einer ersten Entmischungsiteration basiert. Die Klassifikation der gefundenen potentiellen EM erfolgt durch ein merkmalsbasiertes Verfahren. Weiterhin weisen nicht-photosynthetisch aktive Vegetation und Boden eine hohe spektrale Ähnlichkeit auf. Zur sicheren Trennung kann die Identifikation schmaler Absorptionsbanden dienen. Zu diesen zählen beispielsweise die Absorptionsbanden von Holozellulose und – je nach Bodentyp – Absorptionsbanden von Bodenmineralen. Auch die spektrale Variabilität der Klassen PV und NPV erfordert zur sicheren Unterscheidung die Verwendung biophysikalisch erklärbarer Merkmale im Spektrum. Hierzu zählen unter anderem die Stärke der Chlorophyll-Absorption, die Form und Lage der ’RedEdge’ und das Auftreten von Holozellulosebanden. Da diese spektrale Information bei herkömmlichen Entmischungsansätzen nicht berücksichtigt wird, erfolgt überwiegend eine Optimierung der Gesamtalbedo, was zu einer schlechten Trennung der Klassen führen kann. Aus diesem Grund wird in der vorliegenden Arbeit der MESMA-Ansatz dahingehend erweitert, dass spektrale Information in Form von identifizierten und parametrisierten Absorptionsbanden in den Entmischungsprozess mit einfließt und hierdurch das Potential hyperspektraler Datensätze besser genutzt werden kann. Auch wird in einer zusätzlichen Entmischungsiteration die räumliche Nachbarschaft betrachtet, um insbesondere die Verwendung des sinnvollsten Boden-EMs zu gewährleisten. Ein zusätzliches Problemfeld stellt die numerische Lösung des überbestimmten und oftmals schlecht konditionierten linearen Mischungsmodells dar. Hierzu kann durch die Verwendung des BVLS-Algorithmus und des Ausschlusses kritischer EM-Kombinationen eine numerisch stabile Lösung gefunden werden. Um die oftmals immense Rechenzeit von MESMA-Verfahren zu verkürzen, besteht die Möglichkeit einer iterativen EM-Auswahl und somit die Vermeidung einer Lösung des Mischungssystems durch Berechnung aller EM-Kombinationen (’Brute-Force’-Ansatz). Ein weiterer wichtiger Punkt ist die explizite pixelweise Angabe zur Zuverlässigkeit der Entmischungsergebnisse. Dies erfolgt auf Basis des Mischungsmodells selbst, durch den Vergleich zu empirischen Regressionsmodellen, durch die Berücksichtigung des lokalen Einfallswinkels sowie durch die Integration von Qualitätsangaben der Ausgangsdaten. Um das Verfahren systematisch und unter kontrollierten Bedingungen zu verifizieren und um den Einfluss verschiedener externer Parameter sowie die typischen Genauigkeiten auf einer breiten Datenbasis zu ermitteln, wird eine Simulationskette zur Erzeugung synthetischer Mischungen erstellt. In diese Simulationen fließen Feldspektren von Böden und Pflanzen verschiedener semi-arider Gebiete mit ein, um möglichst viele Fälle abdecken zu können. Die eigentliche Validierung erfolgt auf HyMap-Datensätzen des Naturparks ’Cabo de Gata’ in der andalusischen Provinz Almería sowie auf Messungen, die begleitend im Feld durchgeführt wurden. Hiermit konnte die Methodik auf ihre Genauigkeit unter den konkreten Anforderungen des Anwendungsbeispiels überprüft werden. Die erzielbare Genauigkeit dieser automatisierten Methodik liegt mit einem mittleren Fehler um rund 10% Abundanz absolut im selben Wertebereich oder nur geringfügig höher als die Ergebnisse publizierter manueller MESMA-Ansätze. Weiterhin konnten die typischen Genauigkeiten der Verifikation im Zuge der Validierung bestätigt werden. Den limitierenden Faktor des Ansatzes stellen in der Praxis fehlerhafte oder unvollständige EM-Modelle dar. Mit der vorgestellten Methodik ist somit die Möglichkeit gegeben, die Bedeckungsgrade quantitativ und automatisiert im Subpixelbereich zu erfassen.
Processes of the Earth’s surface occur at different scales of time and intensity. Climate in particular determines the activity and seasonal development of vegetation. These dynamics are predominantly driven by temperature in the humid mid-latitudes and by the availability of water in semi-arid regions. Human activities are a modifying parameter for many ecosystems and can become the prime force in well-developed regions with an intensively managed environment. Accounting for these dynamics, i.e. seasonal dynamics of ecosystems and short- to long-term changes in land-cover composition, requires multiple measurements in time. With respect to the characterization of the Earth surface and its transformation due to global warming and human-induced global change, there is a need for appropriate data and methods to determine the activity of vegetation and the change of land cover. Space-borne remote sensing is capable of monitoring the activity and development of vegetation as well as changes of the land surface. In many instances, satellite images are the only means to comprehensively assess the surface characteristics of large areas. A high temporal frequency of image acquisition, forming a time series of satellite data, can be employed for mapping the development of vegetation in space and time. Time series allow for detecting and assessing changes and multi-year transformation processes of high and low intensity, or even abrupt events such as fire and flooding. The operational processing of satellite data and automated information-extraction techniques are the basis for consistent and continuous long-term product generation. This provides the potential for directly using remote-sensing data and products for analyzing the land surface in relation to global warming and global change, including deforestation and land transformation. This study aims at the development of an advanced approach to time-series generation using data-quality indicators. A second goal focuses on the application of time series for automated land-cover classification and update, using fractional cover estimates to accommodate for the comparatively coarse spatial resolution. Requirements of this study are the robustness and high accuracy of the approaches as well as the full transferability to other regions and datasets. In this respect, the developments of this study form a methodological framework, which can be filled with appropriate modules for a specific sensor and application. In order to attain the first goal, time-series compilation, a stand-alone software application called TiSeG (Time Series Generator) has been developed. TiSeG evaluates the pixel-level quality indicators provided with each MODIS land product. It computes two important data-availability indicators, the number of invalid pixels and the maximum gap length. Both indices are visualized in time and space, indicating the feasibility of temporal interpolation. The level of desired data quality can be modified spatially and temporally to account for distinct environments in a larger study area and for seasonal differences. Pixels regarded as invalid are either masked or interpolated with spatial or temporal techniques.
Informationen über die Landbedeckung und die mit der anthropogenen Komponente verbundenen Landnutzung sind elementare Bestandteile für viele Bereiche der Politik, Wirtschaft und Wissenschaft. Darunter fallen beispielsweise die Strukurentwicklungsprogramme der EU, die Schadensregulierung im Versicherungswesen und die Modellierung von Stoffkreisläufen. CORINE Land Cover (CLC) wurde infolge eines erweiterten Bedarfs an einem europaweit harmonisierten Datensatz der Landoberfläche erstellt. Das CORINE Projekt weist für diese Arbeit eine hohe Relevanz durch die regelmäßigen Aktualisierungen von 10 Jahren, dem Einsatz der Daten in vielen europäischen und nationalen Institutionen und der guten Dokumentation der CORINE Nomenklatur auf. Die Erstellung der Daten basiert auf der computergestützten manuellen Interpretation, da automatische Verfahren durch die Komplexität der Aufgabenstellung und Thematik nicht in der Lage waren, den menschlichen Interpreten zu ersetzen. Diese Arbeit stellt eine Methodik vor, um CORINE Land Cover aus optischen Fernerkundungsdaten für eine kommende Aktualisierung abzuleiten. Hierzu dienen die Daten von CLC 1990 und der Fernerkundungsdatensatz Image 2000 als Grundlage, sowie die CLC 2000 Klassifikation als Referenz. Die entwickelte und in dem Softwarepaket gnosis implementierte Methodik wendet die objektorientierte Klassifikation in Kombination mit Theorien aus der menschlichen Bildwahrnehmung an. In diesen Theorien wird die Bildwahrnehmung als informationstechnischer Prozess gesehen, der den Klassifikationsprozess in die drei folgenden Subprozesse unterteilt: Bildsegmentierung, Merkmalsgenerierung und Klassenzuweisung. Die Bildsegmentierung generiert aus den untersten Bildprimitiven (Pixeln) bedeutungsvolle Bildsegmente. Diesen Bildsegmenten wird eine Anzahl von bildinvarianten Merkmalen aus den Fernerkundungsdaten für die Bestimmung der CLC Klasse zugewiesen. Dabei liegt die wichtigste Information in der Ableitung der Landbedeckung durch den überwachten Stützvektor-Klassifikator. Die Landoberfläche wird hierzu in zehn Basisklassen untergliedert, um weiteren Merkmalen einen semantischen Unterbau zu geben. Zur Bestimmung der anthropogenen Komponente von ausgewählten Landnutzungsklassen, wie beispielsweise Ackerland und Grünland, wird der phänologische Verlauf der Vegetation durch die Parameter temporale Variabilität und temporale Intensität beschrieben. Neben dem jahreszeitlichen Verlauf der Vegetation können Nachbarschaftsbeziehungen untersucht werden, um weitere anthropogene Klassen und heterogen aufgebaute Sammelklassen beschreiben zu können. Der Versiegelungsgrad als Beispiel für eine Reihe von unscharfen Merkmalen dient der weiteren Differenzierung der verschiedenen Siedlungsklassen aus CORINE LC. Mit Hilfe dieser Merkmale werden die CLC Klassen in abstrakter Form im Klassenkatalog (a-priori Wissensbasis) als Protoklassen beschrieben. Die eigentliche Objekterkennung basiert auf der Repräsentation der CORINE Objekte durch ihre einzelnen Bestandteile und vergleicht die gefundenen Strukturen mit der Wissensbasis. Semantisch homogen aufgebaute Klassen, wie Wälder und Siedlungen oder Protoklassen mit eindeutigen Merkmalen, beispielsweise zur Bestimmung von Grünland durch die Phänologie, können durch den bottom–up Ansatz identifiziert werden. Das übergeordnete CLC Objekt kann direkt aus den Bestandteilen zusammengebaut und einer Klasse zugewiesen werden. Semantisch heterogene Klassen, wie zum Beispiel bestimmte Sammelklassen (Komplexe Parzellenstrukur), können durch ihre Bestandteile validiert werden, indem die Bestandteile eines existierenden CLC Objektes mit der Wissensbasis auf Konsistenz untersucht werden (top–down Ansatz). Eine a-priori Datengrundlage ist für die Erkennung dieser Klassen essentiell. Die Untersuchung der drei Testgebiete (Frankfurt, Berlin, Oldenburg) zeigte, dass von der CORINE LC Nomenklatur 13 Klassen identifiziert und weiteren 14 Klassen validiert werden können. Zehn Klassen können durch diese Methodik aufgrund fehlender Merkmale oder Zusatzdaten nicht klassifiziert werden. Die Gesamtgenauigkeit der automatisierten Klassifikation für die Testgebiete beträgt zwischen 70% und 80% für die umgesetzten Klassen. Betrachtet man davon einzelne Klassen, wie Siedlungs-, Wald- oder Wasserklassen, wird aufgrund der verwendeten Merkmale eine Klassifikationsgenauigkeit von über 90% erreicht. Ein möglicher Einsatz der entwickelten Software gnosis liegt in der Unterstützung einer kommenden CORINE Aktualisierung durch die Prozessierung der identifizierbaren Klassen. Diese CLC Klassen müssen vom Interpreten nicht mehr überprüft werden. Für bestimmte CLC Klassen aus dem Top-down Ansatz wird der Interpret die letzte Entscheidung aus einer Auswahl von Klassen treffen müssen. Weiterhin können die berechneten Merkmale, wie die temporalen Eigenschaften und der Versiegelungsgrad dem Bearbeiter als Entscheidungsgrundlage zur Verfügung gestellt werden. Der Einsatz dieser neu entwickelten Methode führt zu einer Optimierung des bestehenden Aufnahmeverfahrens durch die Integration von semi-automatisierten Prozessen.