550 Geowissenschaften
Refine
Has Fulltext
- yes (86)
Is part of the Bibliography
- yes (86)
Year of publication
Document Type
- Doctoral Thesis (55)
- Journal article (18)
- Master Thesis (5)
- Conference Proceeding (4)
- Book article / Book chapter (2)
- Book (1)
- Report (1)
Language
- German (86) (remove)
Keywords
- Geographie (9)
- Fernerkundung (8)
- GIS (5)
- Modellierung (5)
- remote sensing (5)
- Anthropogene Klimaänderung (4)
- Geologie (4)
- Karst (4)
- Niger (4)
- Allgemeine atmosphärische Zirkulation (3)
Institute
Sonstige beteiligte Institutionen
In den letzten Jahrzehnten ist eine verstärkte Veränderung der Landoberfläche beobachtet worden. Diese Prozesse sind direkten und indirekten anthropogenen Einflüssen zuzuschreiben, wie Deforestation oder Klimawandel. Mit dieser Entwicklung geht der Verlust und die Fragmentation von naturnahen Flächen einher. Für das Fortbestehen von Populationen verschiedenster Organismen in einer derartig geformten Landschaft ist entscheidend, inwieweit die Migration zwischen bestehenden Fragmenten gewährleistet ist. Diese wird von der Eignung der umgebenden Landschaft beeinflusst. Im Kontext einer klimatischen Veränderung und verstärkter anthropogener Landnutzung ist die Analyse der räumlichen Anordnung von Habitatfragmenten und der Qualität der umgebenden Landschaft besonders für die globale Aufrechterhaltung der Biodiversität wichtig. Großräumige Muster der Landschaftsveränderung können mit Hilfe von Satellitendaten analysiert werden, da es nur diese ermöglichen die Landbedeckung flächendeckend, reproduzierbar und auf einer adäquaten räumlichen Auflösung zu kartieren. Besonders zeitlich hochaufgelöste Daten liefern wertvolle Informationen bezüglich der Dynamik der Landbedeckung. Diese Arbeit beschäftigt sich mit der Analyse der Fragmentation in Westafrika und der potentiellen Bedeutung von singulären Fragmenten und deren potentiellen Auswirkungen auf die Biodiversität. Dafür wurden zeitlich hoch- und räumlich mittelaufgelöste Daten des Aufnahmesystems MODIS verwendet, mit denen für das Untersuchungsgebiet Westafrika die Landbedeckung klassifziert wurde. Für die darauf folgenden Analysen der räumlichen Konfiguration der Fragmente wurde der Fokus auf Regenwaldgebiete gelegt. Die Analyse von räumlichen Mustern der Regenwaldfragmente liefert weiterführende qualitative Informationen der individuellen Teilbereiche. Die räumliche Anordnung wurde sowohl mit etablierten Maßen als auch mittels in dieser Arbeit erstellter robuster und übertragbarer Indizes quantifiziert. Es konnte gezeigt werden, dass die Verwendung von aussagekräftigen Indizes, besonders, wenn sie alle benachbarten Fragmente und die Qualität der umgebenden Matrix berücksichtigen, die räumliche Differenzierung von Fragmenten verbessert. Jedoch ist die Anwendung dieser Maße abhängig von den Ansprüchen einer Art. Daher muss die artspezifische Perzeptionen der Landschaft auf der Basis der Indizes implementiert werden, da die Übertragung der Ergebnisse einzelner Indizes auf andere räumliche Auflösungen und andere Regionen nur begrenzt möglich war. Des Weiteren wurden potentielle Einflussfaktoren auf die räumlichen Muster mittels Neutraler Landschaftsmodelle untersucht. Hierbei ergaben sich je nach Region und Index unterschiedliche Ergebnisse, allerdings konnte der Einfluss anthropogen induzierter Veränderungen auf die Landbedeckung postuliert werden. Die große Bedeutung der räumlichen Attribution von Landbedeckungsklassen konnte in dieser Arbeit aufgezeigt werden. Der alleinige Fokus auf die Kartierung von z. B. Waldfragmenten ohne deren räumliche Anordnung zu berücksichtigen, kann zu falschen Schlüssen bezüglich deren ökologischen, hydrologischen und klimatologischen Bedeutung führen.
Im Rahmen der vorliegenden Arbeit wurden die Druck-Temperatur-Bildungsbedingungen metapelitischer Gesteine aus verschiedenen lithostratigraphischen Formationen des Spessart-Kristallins untersucht. Geologisch stellt das Spessart-Kristallin einen Teil der Mitteldeutschen Kristallinzone dar, die sich innerhalb des Orogens der mitteleuropäischen Varisziden am nördlichen Rand des Saxothuringikums erstreckt. Das wesentliche Ziel der Untersuchungen bestand darin, mittels phasenpetrologischer und geothermobarometrischer Methoden die Metamorphose-Entwicklung des Spessart-Kristallins zu rekonstruieren und in Beziehung zur geodynamischen Geschichte der Varisziden zu setzen. Der Schwerpunkt der Arbeiten lag auf den Staurolith-Glimmerschiefern der Mömbris-Formation. Darüber hinaus wurden Gesteine der Geiselbach-, Alzenau- und Elterhof-Formation einbezogen. Als Grundlage für die Phasenpetrologie wurden petrographische, mineralchemische und geochemische Untersuchungen durchgeführt. Prograde Metamophose-Zonen können im Spessart-Kristallin nicht kartiert werden. Die Protolithe der untersuchten Metasedimente stellten vermutlich häufig saure bis intermediäre Magmatite dar, für die Geiselbach- und Elterhof-Formation wohl auch quarzreiche Sedimente. Die geo¬chemischen Daten lassen für die Mömbris-, Alzenau- und Elterhof-Formation Grauwacken bis Pelite als sedimentäre Edukte der Metamorphite annehmen, die Gesteine der Geiselbach-Formation könnten auf Arkosen zurückgehen. Eine Ablagerung der sedimentären Edukte im Bereich eines Kontinen¬talen Inselbogens bis Aktiven Kontinentalrandes ist für die Mömbris- und Alzenau-Formation wahrscheinlich, für die Geiselbach- und Elterhof-Formation liegt kein eindeutiges Bild vor. Zur Abschätzung der Metamorphosebedingungen wurden verschiedene Phasendiagramme verwendet, die auf den metapelitischen Modellsystemen KMnFMASH (K2O-MnO-FeO-MgO-Al2O3-SiO2-H2O) und KFMASH (K2O-FeO-MgO-Al2O3-SiO2-H2O) basieren, insbesondere P-T-Pseudoschnitte und T-X-Schnitte. Weiterhin wurden konventionelle Geothermobarometer berechnet und Abschätzungen mittels intern-konsistenter thermodynamischer Datensätze vorgenommen. Die theoretischen Grundlagen dieses phasenpetrologischen Ansatzes werden kurz erläutert. Für den Metamorphose-Höhepunkt der Gesteine ergaben sich Temperaturen im Bereich von ca. 600 - 615 °C und Drucke um 6.5 - 8 kbar. Diese Daten weisen eine recht gute Übereinstimmung zu den bisher in der Literatur bekannten Werten für das Spessart-Kristallin auf. Im Anschluß an die amphibolitfazielle Metamorphose wurden die Gesteine mehr oder minder stark retrograd überprägt. Anzeichen für eine polymetamorphe Entwicklung dieses Teils der Mitteldeutschen Kristallinzone liegen nicht vor. Die rekonstruierten P-T-Pfade bzw. P-T-Pfad-Segmente dokumentieren eine recht einheitliche metamorphe Entwicklung im Uhrzeigersinn („clockwise“) und weisen auf eine Barrow-type Metamorphose hin. Die P-T-Pfade der meisten Proben zeigen einen charakteristischen Verlauf mit einer Phase nahezu isothermaler Dekompression. Demgegenüber konnte für einige Disthen-führende Proben ein etwas flacherer P-T-Pfad mit einer offenbar geringfügig stärker Temperatur-betonten Entwicklung differenziert werden. Das Metamorphose-Maximum ist für diese Gesteine durch Temperaturen von ca. 620 - 630 °C und Drucke von etwa 6 - 8 kbar gekennzeichnet. Damit wird eine leichte Zunahme des Metamorphosegrades nach Süden innerhalb der Mömbris-Formation, die verschiedentlich vermutet worden war, nachgewiesen. Die neu erarbeiteten Pfade sind aufgrund des methodischen Ansatzes, der die Zusammensetzung und Mineralparagenese der jeweiligen Probe berücksichtigt, im Vergleich zu früheren Arbeiten deutlich besser abgesichert. Sie dokumentieren erstmals in dieser Form die Druck-Temperatur-Geschichte des Spessart-Kristallins. Die P-T-Pfade lassen auf eine relativ schnelle Versenkung der Gesteine bei einem recht niedrigen geothermischen Gradienten und eine anschließende rasche Heraushebung aus einer Tiefe von etwa 25 - 28 km auf etwa 15 - 18 km bei einer eher geringen Temperaturabnahme schließen. Die damit für das Spessart-Kristallin dokumentierte Entwicklung fügt sich gut in das aktuelle geotektonische Modell einer Kollision eines passiven Kontinentalrandes mit einem kontinentalen Bogen ein und steht in Analogie zur derzeit gängigen Vorstellung, die Mitteldeutsche Kristallinschwelle repräsentiere einen variszischen aktiven Plattenrand.
Warum sind manche Unternehmen und warum manche Regionen innovativer als andere? Zahlreichen wissenschaftlichen Beiträgen zufolge ist die Antwort auf diese Frage vom vorhandenen Humankapital und dem vorhandenen und verfügbaren Wissen abhängig. Innovationen werden von Menschen vorangetrieben. Warum scheinen die Mitarbeiter mancher Unternehmen innovativer zu sein, als die Mitarbeiter anderer Unternehmen? Diese Frage gewinnt angesichts zunehmender Dynamik, einem intensiveren Wettbewerb und einem rascheren Wertewandel im heutigen Unternehmensumfeld an praktischer und theoretischer Relevanz. Tatsächlich erhöht der immer schneller werdende technologische, gesellschaftliche und wirtschaftliche Wandel die bei Innovationsvorhaben ohnehin schon stetig steigende Aufgabenkomplexität und Projektunsicherheit. Allerdings birgt dieser Wandel nicht nur Unsicherheit, sondern schafft in zunehmendem Maße unternehmerische Chancen, die sowohl von Unternehmern und Gründern als auch von Mitarbeitern genutzt werden können. Viele innovationstheoretische Untersuchungen konzentrieren sich auf eine faktorielle Darstellung von erfolgswirksamen Rahmenbedingungen, die es herzustellen gilt, um ein ‚gesundes’ Milieu zu schaffen, in dem Menschen Unternehmen gründen und Innovationen vorantreiben. Verhaltensorientierte Studien im Kontext der Innovations- und Gründungsforschung zeigen, dass gerade Faktoren, die im Zusammenhang mit der Person stehen, einen erheblichen Einfluss auf den Innovations- und Gründungserfolg haben. Um in diesem Kontext eine Ursache für Regionalentwicklung zu finden, verbleibt die Suche nicht bei einer rein auf Faktorausstattung reduzierten Erklärung. Dagegen rückt die Studie den Mikrofaktor Humankapital im Zusammenhang zur Innovationsentwicklung in den Mittelpunkt. Sie leistet damit einen Beitrag zum Entstehungsprozess von Innovationen, indem empirisch untersucht wird, welche unternehmerischen Kompetenzen in einem Innovationsprozess benötigt werden und welche daraus resultierenden Handlungsstrategien den Erfolg der Innovationsteams bedingen.
Beobachtung des Hydroxyl (OH*)-Airglow: Untersuchung von Klimasignalen und atmosphärischen Wellen
(2009)
Die obere Mesosphäre ist die Atmosphärenschicht, die von etwa 80-100 km Höhe reicht. Aufgrund der geringen Luftdichte – sie ist fünf bis sechs Größenordnungen geringer als an der Erdoberfläche – und der effektiven Abstrahlung von Wärme in den Weltraum („Strahlungskühlung“) wird generell angenommen, dass Klimasignale in diesem Höhenbereich sehr viel ausgeprägter sein sollten als in den unteren Atmosphärenschichten. Es wird daher erwartet, dass Beobachtungen in dieser Region der Atmosphäre eine frühzeitige Erkennung von Klimatrends mit guter statistischer Signifikanz erlauben sollten. Daten, die von diesen Messungen bereitgestellt werden, sind wichtig für die Weiterentwicklung und Verbesserung numerischer Klimamodelle, die die mittlere Atmosphäre abdecken. Dieser Höhenbereich der Atmosphäre ist messtechnisch jedoch nur schwer zugänglich. Die Dichte der Messnetze ist keinesfalls vergleichbar mit denen für die Beobachtung etwa der Stratosphäre oder der Troposphäre; Routinemessungen gibt es kaum. Direkte Messungen werden mit raketengestützten Instrumenten, indirekte Messungen über satellitengestützte und bodengebundene Techniken, wie z.B. Lidar, Radar und Spektroskopie, vorgenommen. Die vorliegende Arbeit basiert auf Daten des „GRound-based Infrared P-branch Spectrometer (GRIPS)“, das Infrarot-Emissionen aus der sogenannten OH*-Airglow-Schicht misst, aus denen die Temperatur in ~87 km Höhe abgeleitet werden kann. Neben anthropogenen Einflüssen auf das Klima gibt es natürliche Effekte, die Temperaturschwankungen in der oberen Mesosphäre verursachen können. Für die Interpretation experimenteller Daten ist das Verständnis dieser natürlichen Quellen der Variabilität wichtig. Daher wird mithilfe einer 25-jährigen Zeitreihe der über Wuppertal (51,3°N, 7,2°O) gemessenen OH*-Temperaturen die potentielle Wechselwirkung der Dynamik der oberen Mesosphäre mit der Sonnenaktivität untersucht. Eine Korrelation der Aktivität planetarer Wellen mit dem solaren Magnetfeld (22-jähriger solarer Hale-Zyklus) konnte festgestellt werden. Als möglicher physikalischer Mechanismus wird vorgeschlagen, dass der Ringstrom im Erdinnern und damit das interne Magnetfeld der Erde durch das solare Magnetfeld moduliert wird, was wiederum zu Modulationen des totalen Magnetfeldes im Erdinnern über die Kopplung elektromagnetischer Drehmomente zwischen dem Erdkern und dem Erdmantel führt. Als Folge sollte die Rotationsperiode der Erde – und damit die Aktivität planetarer Wellen – durch die solare Magnetfeldstärke moduliert sein. Der Aktivität planetarer Wellen ist zudem eine quasi-zweijährige Schwingung überlagert. Zumeist ist die Wellenaktivität verstärkt, wenn sich die Windrichtung des mittleren zonalen Windes der äquatorialen Quasi-Biennalen Oszillation (QBO) von einem Westwind zu einem Ostwind umkehrt. Darüber hinaus konnte festgestellt werden, dass die unregelmäßige Verteilung der Sonnenflecken auf der Sonnenscheibe aufgrund der Rotation der Sonne zu Fluktuationen der OH*-Temperatur führt. Häufig beobachtet werden ausgeprägte spektrale Komponenten in den OH*-Temperaturfluktuationen im Periodenbereich von 27 bis 31 Tagen. Diese Signaturen werden vorläufig auf die differentielle Rotation der Sonne zurückgeführt. Dynamische Prozesse wie z.B. atmosphärische Schwerewellen sind von großer Bedeutung für den Energiehaushalt der oberen Mesosphäre / unteren Thermosphäre (MLT-Region). Daher müssen sie in Klimamodellen berücksichtigt werden, was derzeit jedoch nur durch einfache Parametrisierungen bewerkstelligt werden kann. Um eine möglichst realistische Modellierung der großräumigen Zirkulationssysteme zu ermöglichen, ist die Kenntnis der Strukturfunktionen der Schwerewellen sowie ihre Quell- und Senkenstärken in Raum und Zeit erforderlich. Messungen von Schwerewellen sind daher unabdingbar. In der vorliegenden Arbeit werden im Rahmen von Fallstudien Temperatursignaturen untersucht, wie sie von Schwerewellen erzeugt werden. Verwendet werden hierfür zeitlich hoch aufgelöste OH*-Temperaturzeitreihen aufgenommen am Hohenpeißenberg (47,8°N, 11,0°O) und an der Zugspitze (47,5°N, 11,0°O). Durch den Alpenkamm induzierte Schwerewellen können identifiziert und Schwerewellenparameter wie beispielsweise die Ausbreitungsrichtung oder die Phasengeschwindigkeit quantifiziert werden. Messungen, aufgenommen von Bord des deutschen Forschungsschiffes „Polarstern“ im Golf von Biskaya (um 48°N, 6°O), werden mit satellitenbasierten Beobachtungen kombiniert. Es wird gezeigt, dass Schwerewellen, die von einem atlantischen Zyklon erzeugt werden, die Temperatur in der Mesopausenregion beeinflussen können. Das GRIPS-System ist ferner prinzipiell zur schnellen Erkennung von Naturgefahren wie z.B. Tsunamis, Erdbeben oder Vulkanaktivität geeignet, da solche Ereignisse Infraschall erzeugen, der wiederum erkennbare Temperaturfluktuationen in der OH*-Airglow-Schicht verursacht. Am Beispiel des Sumatra-Tsunamis von 2004 wird diese Möglichkeit quantitativ diskutiert.
Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%.
Für eine dauerhaft gesicherte und umweltgerechte Energieerzeugung kommt den erneuerbaren Energien in Zukunft eine immer größere Bedeutung zu. Dies stellt eine große Herausforderung für die Entwicklung zukünftiger Energiesysteme dar, da erneuerbare Energieträger zeitlich und räumlich zumeist hoch variabel zur Verfügung stehen. Eine effiziente Integration solar erzeugter Energie in das bestehende Energieversorgungsnetz ist daher nur möglich, wenn verlässliche Nahe-Echtzeit-Vorhersagen der am Erdboden verfügbaren Einstrahlung und ein- bis dreitägige Vorhersagen von Energieproduktion und -nachfrage zur Verfügung stehen. Die vorliegende Arbeit beschäftigt sich mit der Vorhersage der solaren Strahlung für die nächsten Tage und Stunden im Hinblick auf Anwendungen in der Energiewirtschaft. Der dominante Atmosphärenparameter für die Abschwächung der solaren Einstrahlung ist die Bewölkung. Das größte wirtschaftliche Potential der Solarenergie liegt jedoch in Zeiträumen und Regionen, in denen wenig Bewölkung auftritt. Im wolkenlosen Fall beeinflussen vor allem Aerosole, feste und flüssige Partikel in der Atmosphäre, die direkte und diffuse Strahlung am Erdboden. Aerosole sind durch eine hohe zeitliche und räumliche Variabilität gekennzeichnet, die die Bestimmung ihrer raumzeitlichen Verteilung und damit ihres Einflusses auf die Strahlung erschwert und einen hohen Aufwand zu ihrer Prognose erforderlich macht. Am Beispiel eines fünfmonatigen europäischen Datensatzes (Juli-November 2003) werden Prognosen der aerosoloptischen Tiefe bei 550 nm (AOT550) untersucht, die aus Aerosolvorhersagen eines Chemie-Transport-Modells stammen. Es zeigt sich, dass im Vergleich mit Bodenmessungen die Aerosolprognosen mit einer mittleren Unterschätzung von -0,11 und einem RMSE von 0,20 die geforderte Genauigkeit nicht ganz erreichen. Dabei stellen insbesondere die unregelmäßig auftretenden Saharastaubausbrüche über dem zentralen Mittelmeer eine im Modell bisher nicht erfassbare Quelle großer Ungenauigkeiten in der AOT- und damit auch in der Strahlungsvorhersage dar. Entsprechend der hohen regionalen Aerosol-Variabilität finden sich zudem signifikante Unterschiede zwischen den Regionen, zum Beispiel eine deutliche Unterschätzung des Aerosolaufkommens in der stark industriell belasteten Po-Ebene Norditaliens sowie gute Entsprechungen in abgelegenen Gegenden Nordeuropas. Basierend auf dieser Aerosol-Prognose und unter Einbeziehung weiterer Fernerkundungsdaten (Bodenalbedo, Ozon) und Parametern aus der numerischen Wetterprognose (Wasserdampf, Wolken) wird ein Prototyp für ein Vorhersagesystem der Solarstrahlung konzipiert und vorgestellt: das AFSOL-System (Aerosol-based Forecasts of Solar Irradiance for Energy Applications). An Hand der fünfmonatigen Testepisode wird das AFSOL-System mit Vorhersagen des Europäischen Zentrums für Mittelfrist-Wettervorhersage (ECMWF), mit satellitenbasierten Beobachtungen der Solarstrahlung (Meteosat-7) und mit Bodenmessungen der Solarstrahlung verglichen. Für den wolkenlosen Fall erzielt das AFSOL-Modellsystem eine deutliche Verbesserung der Direktstrahlungsprognosen gegenüber den ECMWF-Vorhersagen, mit einer Reduktion des relativen Bias von -26% auf +11% und des relativen RMSE von 31% auf 19%. Dies kann auf die verbesserte Beschreibung des atmosphärischen Aerosols zurückgeführt werden, die sich im Vergleich zu den am ECMWF genutzten AOT-Klimatologien ergibt, auch wenn insbesondere bei der Behandlung von Wüstenstaubepisoden weiterhin Probleme auftreten. Auch die Globalstrahlungsprognosen erreichen im wolkenlosen Fall eine höhere Genauigkeit als die operationell verfügbaren ECMWF-Vorhersagen, was sich in einer Verringerung des relativen Bias von -10% zu +5% sowie des relativen RMSE von 12% zu 7% zeigt. Im bewölkten Fall jedoch können die Vorhersagen des AFSOL-Systems erhebliche Ungenauigkeiten aufweisen, die sich auf Grund von Problemen bei der Wolkenprognose des zu Grunde liegenden numerischen Wettervorhersagemodells ergeben. Abschließend wird in einer Fallstudie zur Verwendung der Vorhersagen für die optimale Betriebsführung eines solarthermischen Kraftwerks in Spanien beispielhaft gezeigt, dass die Nutzung der AFSOL-Prognose im wolkenlosen Fall eine deutliche Gewinnsteigerung bei der Einspeisung ins öffentliche Stromnetz durch den Handel an der spanischen Strombörse ermöglicht.
Vulnerabilitätsabschätzung der erdbebengefährdeten Megacity Istanbul mit Methoden der Fernerkundung
(2008)
Urbane Räume zählen zu den dynamischsten Regionen dieser Erde. Besonders Megacities zeigen bereits heute Trends und Dimensionen der Urbanisierung, deren regionale und globale Folgen noch kaum vorhersehbar, und erst ansatzweise erforscht sind. Die enorme räumliche Konzentration von Menschen, Werten und Infrastruktur auf engem Raum ist für diese urbanen Räume die Grundlage einer hohen Verwundbarkeit (Vulnerabilität). Gerade im Kontext von Naturgefahren potenzieren sich die Risiken, die durch den schnellen strukturellen, sozioökonomischen und ökologischen Wandel entstehen. Das übergeordnete Ziel dieser Dissertation ist daher die Analyse von Potentialen der Fernerkundung zur Abschätzung von Risiko und Vulnerabilität am Beispiel der erdbebengefährdeten Megacity Istanbul. Um die Zielstellung systematisch zu verfolgen, wird ein konzeptioneller, thematischer Leitfaden entwickelt. Dieser besteht aus einer Systematisierung der abstrakten Überbegriffe ‚Risiko’, ‚Vulnerabilität’ und ‚Gefährdung’ in einem Indikatorensystem. Konkrete, messbare Indikatoren für das System ‚urbaner Raum’ erlauben eine quantitative Abschätzung von Einzelaspekten, addieren sich aber auch zu einer ganzheitlichen Perspektive des Risikos. Basierend auf dieser holistischen Idee, erlaubt das Indikatorensystem Potentiale, aber auch Limitierungen der Fernerkundungsdaten und Bildverarbeitungsmethoden für die Abschätzung von Risiko und Vulnerabilität zu identifizieren. Anhand des Leitfadens werden zielgerichtet Methoden zur automatisierten Extraktion räumlicher Informationen aus Fernerkundungsdaten entwickelt. Ein objektorientierter, modularer Klassifikationsansatz ermöglicht eine Landbedeckungsklassifikation höchst aufgelöster Daten im urbanen Raum. Dieses modulare Rahmenwerk zielt auf eine einfache und schnelle Übertragbarkeit auf andere höchst auflösende Sensoren bzw. andere urbane Strukturen. Zur Anpassung der Methoden werden neben IKONOS Daten der Megacity Istanbul und der erdbeben- und tsunamigefährdeten Küstenstadt Padang in Indonesien, Quickbird Daten für die zukünftige Megacity Hyderabad in Indien getestet. Die Resultate zeigen die detaillierte und hochgenaue Erfassung kleinräumiger, heterogener urbaner Objekte mit Genauigkeiten von über 80 %. Auch mittel aufgelöste Landsat Daten werden mit einem objektorientierten modularen Rahmenwerk mit hohen Genauigkeiten klassifiziert, um komplementäre temporale und gesamtstädtische Analysen hinzuzufügen. Damit wird eine aktuelle, flächendeckende und multiskalige Informationsbasis generiert, die als Ausgangsprodukt zur Analyse urbaner Vulnerabilität dient. Basierend auf diesen Informationsebenen werden dem konzeptionellen Leitfaden folgend Indikatoren zur Abschätzung von Vulnerabilität und Risiko extrahiert. Der Fokus ist dabei die Entwicklung von Methoden zur automatisierten, interpreterunabhängigen Ableitung vulnerabilitäts- und gefährdungsrelevanter Indikatoren. Die physische Analyse des kleinräumigen urbanen Raums konzentriert sich dabei auf die Typisierung des Gebäudebestandes mit Parametern wie Dichte, Höhe, Alter, Größe, Form sowie Dachtyp. Indirekt wird zudem mittels dieser Parameter die Bevölkerungsdichteverteilung abgeleitet. Weitere Standortfaktoren ergeben sich aus Lageparametern wie Distanzen zu Hauptverkehrsachsen, Freiflächenanalysen oder der Geländeoberfläche. Schließlich führt die Vulnerabilitätsabschätzung den modellhaften, thematischen Leitfaden mit den abgeleiteten Indikatoren zusammen. Dazu erfolgt eine Normierung der unterschiedlichen abgeleiteten Indikatoren auf einen einheitlichen Vulnerabilitätsindex. Dieser zielt auf eine räumliche und zeitliche Vergleichbarkeit und die Möglichkeit, die vielfältigen Informationsebenen zu kombinieren. Damit wird das Zusammenspiel verschiedenster Indikatoren simuliert und erlaubt daraus Identifizierung und Lokalisierung von Brennpunkten im Desasterfall. Über das fernerkundliche Potential hinaus, werden die Resultate in einer interdisziplinären Methode zu einem synergetischen Mehrwert erhoben. Statt einer quantitativen Abschätzung der physischen Gebäudeparameter, ermöglicht eine Methode des Bauingenieurwesens in Kombination mit der fernerkundlichen Gebäudetypisierung eine Abschätzung der wahrscheinlichen Schadensanfälligkeit von Gebäuden im Falle eines Erdbebens. Exemplarisch wird das Potential der Resultate für Entscheidungsträger anhand eines Erdbebensszenarios aufgezeigt. Risiko und Vulnerabilität lassen sich dadurch räumlich sowohl nach betroffenen Häusern und betroffenen Menschen als auch nach räumlichen Standortfaktoren wie beispielsweise Zugänglichkeit quantifizieren. Dies ermöglicht gezielt präventiv zu agieren oder während und nach einem Desaster gezieltes Krisenmanagement zu betreiben. Im Hinblick auf die zentrale Fragestellung dieser Dissertation lässt sich resümieren, dass die Aktualität sowie die geometrische und thematische Qualität der Resultate aus Fernerkundungsdaten, den Anforderungen des komplexen, kleinräumigen und dynamischen urbanen Raums gerecht werden. Die Resultate führen zu der Erkenntnis, dass das Potential der Fernerkundung zur Abschätzung von Vulnerabilität und Risiko vor allem in der direkten Ableitung physischer Indikatoren sowie der indirekten Ableitung demographischer Parameter liegt.
Weltweit sind Trockengebiete in ständiger Veränderung, verursacht durch natürliche klimatische Schwankungen und oftmals durch Prozesse der Landdegradation. Auch weisen die meisten semi-ariden Naturräume eine große räumliche Heterogenität auf, hervorgerufen durch ein kleinräumiges Mosaik aus Gräsern, kleineren Sträuchern und Bereichen offenliegenden Bodens. Die Dichte der Vegetation wird primär vom pflanzenverfügbaren Wasser bestimmt, aber auch der Entwicklungs- und Degradationszustand der Böden sowie anthropogen bedingte Faktoren spielen hierbei eine Rolle. Zur Charakterisierung und Kartierung der Vegetation sowie zur Bewertung des Bodenerosionsrisikos und des Degradationszustands hat sich die Erhebung der Bedeckungsgrade von vitaler, photosynthetisch aktiver Vegetation (PV), von abgestorbener oder zeitweise vertrockneter und somit nicht photosynthetisch aktiver Vegetation (NPV) sowie von offenliegendem Boden als zweckmäßig herausgestellt. Die Nutzung der Fernerkundung für diese Aufgabe erfolgt zumeist nur für kleinmaßstäbige Kartierungen und – im Falle von Multispektralsensoren – unter Vernachlässigung nicht-photosynthetisch aktiver Vegetation. Die räumliche Variabilität der Vegetation-Boden-Mosaike liegt oftmals in der Größenordnung von wenigen Metern und somit unterhalb des räumlichen Auflösungsvermögens von Fernerkundungssystemen. Um dennoch die verschiedenen Anteile innerhalb eines Pixels identifizieren und quantifizieren zu können, sind Methoden der Subpixel-Klassifikation notwendig. In dieser Arbeit wird eine Methodik zur verbesserten und automatisierbaren Ableitung von Bodenbedeckungsgraden in semi-ariden Naturräumen vorgestellt. Hierzu wurde ein Verfahren zur linearen spektralen Entmischung in Form einer Multiple Endmember Spectral Mixture Analysis (MESMA) entwickelt und umgesetzt. Durch diese Methodik kann explizit die spektrale Variabilität von Vegetation und Boden in das Mischungsmodellmiteinbezogen werden, und quantitative Anteile für die funktionalen Klassen PV, NPV und Boden innerhalb eines Pixels erfasst werden. Durch die räumliche Kartierung der verwendeten EM wird weiterhin eine thematische Klassifikation erreicht. Die hierfür benötigten Informationen können – wie im Falle der Spektren reiner Materialien (EM-Spektren) – aus den Bilddaten selbst abgeleitet werden, oder können – wie ein Geländemodell und die Information über den Scanwinkel – im Zuge der Vorprozessierung aus weiteren Datenquellen erzeugt werden. Hinsichtlich der automatisierten EM-Ableitung wird eine zweistufige Methodik eingesetzt, welche auf einer angepassten Version des Sequential Maximum Angle Convex Cone (SMACC)-Verfahrens sowie der Analyse einer ersten Entmischungsiteration basiert. Die Klassifikation der gefundenen potentiellen EM erfolgt durch ein merkmalsbasiertes Verfahren. Weiterhin weisen nicht-photosynthetisch aktive Vegetation und Boden eine hohe spektrale Ähnlichkeit auf. Zur sicheren Trennung kann die Identifikation schmaler Absorptionsbanden dienen. Zu diesen zählen beispielsweise die Absorptionsbanden von Holozellulose und – je nach Bodentyp – Absorptionsbanden von Bodenmineralen. Auch die spektrale Variabilität der Klassen PV und NPV erfordert zur sicheren Unterscheidung die Verwendung biophysikalisch erklärbarer Merkmale im Spektrum. Hierzu zählen unter anderem die Stärke der Chlorophyll-Absorption, die Form und Lage der ’RedEdge’ und das Auftreten von Holozellulosebanden. Da diese spektrale Information bei herkömmlichen Entmischungsansätzen nicht berücksichtigt wird, erfolgt überwiegend eine Optimierung der Gesamtalbedo, was zu einer schlechten Trennung der Klassen führen kann. Aus diesem Grund wird in der vorliegenden Arbeit der MESMA-Ansatz dahingehend erweitert, dass spektrale Information in Form von identifizierten und parametrisierten Absorptionsbanden in den Entmischungsprozess mit einfließt und hierdurch das Potential hyperspektraler Datensätze besser genutzt werden kann. Auch wird in einer zusätzlichen Entmischungsiteration die räumliche Nachbarschaft betrachtet, um insbesondere die Verwendung des sinnvollsten Boden-EMs zu gewährleisten. Ein zusätzliches Problemfeld stellt die numerische Lösung des überbestimmten und oftmals schlecht konditionierten linearen Mischungsmodells dar. Hierzu kann durch die Verwendung des BVLS-Algorithmus und des Ausschlusses kritischer EM-Kombinationen eine numerisch stabile Lösung gefunden werden. Um die oftmals immense Rechenzeit von MESMA-Verfahren zu verkürzen, besteht die Möglichkeit einer iterativen EM-Auswahl und somit die Vermeidung einer Lösung des Mischungssystems durch Berechnung aller EM-Kombinationen (’Brute-Force’-Ansatz). Ein weiterer wichtiger Punkt ist die explizite pixelweise Angabe zur Zuverlässigkeit der Entmischungsergebnisse. Dies erfolgt auf Basis des Mischungsmodells selbst, durch den Vergleich zu empirischen Regressionsmodellen, durch die Berücksichtigung des lokalen Einfallswinkels sowie durch die Integration von Qualitätsangaben der Ausgangsdaten. Um das Verfahren systematisch und unter kontrollierten Bedingungen zu verifizieren und um den Einfluss verschiedener externer Parameter sowie die typischen Genauigkeiten auf einer breiten Datenbasis zu ermitteln, wird eine Simulationskette zur Erzeugung synthetischer Mischungen erstellt. In diese Simulationen fließen Feldspektren von Böden und Pflanzen verschiedener semi-arider Gebiete mit ein, um möglichst viele Fälle abdecken zu können. Die eigentliche Validierung erfolgt auf HyMap-Datensätzen des Naturparks ’Cabo de Gata’ in der andalusischen Provinz Almería sowie auf Messungen, die begleitend im Feld durchgeführt wurden. Hiermit konnte die Methodik auf ihre Genauigkeit unter den konkreten Anforderungen des Anwendungsbeispiels überprüft werden. Die erzielbare Genauigkeit dieser automatisierten Methodik liegt mit einem mittleren Fehler um rund 10% Abundanz absolut im selben Wertebereich oder nur geringfügig höher als die Ergebnisse publizierter manueller MESMA-Ansätze. Weiterhin konnten die typischen Genauigkeiten der Verifikation im Zuge der Validierung bestätigt werden. Den limitierenden Faktor des Ansatzes stellen in der Praxis fehlerhafte oder unvollständige EM-Modelle dar. Mit der vorgestellten Methodik ist somit die Möglichkeit gegeben, die Bedeckungsgrade quantitativ und automatisiert im Subpixelbereich zu erfassen.
Informationen über die Landbedeckung und die mit der anthropogenen Komponente verbundenen Landnutzung sind elementare Bestandteile für viele Bereiche der Politik, Wirtschaft und Wissenschaft. Darunter fallen beispielsweise die Strukurentwicklungsprogramme der EU, die Schadensregulierung im Versicherungswesen und die Modellierung von Stoffkreisläufen. CORINE Land Cover (CLC) wurde infolge eines erweiterten Bedarfs an einem europaweit harmonisierten Datensatz der Landoberfläche erstellt. Das CORINE Projekt weist für diese Arbeit eine hohe Relevanz durch die regelmäßigen Aktualisierungen von 10 Jahren, dem Einsatz der Daten in vielen europäischen und nationalen Institutionen und der guten Dokumentation der CORINE Nomenklatur auf. Die Erstellung der Daten basiert auf der computergestützten manuellen Interpretation, da automatische Verfahren durch die Komplexität der Aufgabenstellung und Thematik nicht in der Lage waren, den menschlichen Interpreten zu ersetzen. Diese Arbeit stellt eine Methodik vor, um CORINE Land Cover aus optischen Fernerkundungsdaten für eine kommende Aktualisierung abzuleiten. Hierzu dienen die Daten von CLC 1990 und der Fernerkundungsdatensatz Image 2000 als Grundlage, sowie die CLC 2000 Klassifikation als Referenz. Die entwickelte und in dem Softwarepaket gnosis implementierte Methodik wendet die objektorientierte Klassifikation in Kombination mit Theorien aus der menschlichen Bildwahrnehmung an. In diesen Theorien wird die Bildwahrnehmung als informationstechnischer Prozess gesehen, der den Klassifikationsprozess in die drei folgenden Subprozesse unterteilt: Bildsegmentierung, Merkmalsgenerierung und Klassenzuweisung. Die Bildsegmentierung generiert aus den untersten Bildprimitiven (Pixeln) bedeutungsvolle Bildsegmente. Diesen Bildsegmenten wird eine Anzahl von bildinvarianten Merkmalen aus den Fernerkundungsdaten für die Bestimmung der CLC Klasse zugewiesen. Dabei liegt die wichtigste Information in der Ableitung der Landbedeckung durch den überwachten Stützvektor-Klassifikator. Die Landoberfläche wird hierzu in zehn Basisklassen untergliedert, um weiteren Merkmalen einen semantischen Unterbau zu geben. Zur Bestimmung der anthropogenen Komponente von ausgewählten Landnutzungsklassen, wie beispielsweise Ackerland und Grünland, wird der phänologische Verlauf der Vegetation durch die Parameter temporale Variabilität und temporale Intensität beschrieben. Neben dem jahreszeitlichen Verlauf der Vegetation können Nachbarschaftsbeziehungen untersucht werden, um weitere anthropogene Klassen und heterogen aufgebaute Sammelklassen beschreiben zu können. Der Versiegelungsgrad als Beispiel für eine Reihe von unscharfen Merkmalen dient der weiteren Differenzierung der verschiedenen Siedlungsklassen aus CORINE LC. Mit Hilfe dieser Merkmale werden die CLC Klassen in abstrakter Form im Klassenkatalog (a-priori Wissensbasis) als Protoklassen beschrieben. Die eigentliche Objekterkennung basiert auf der Repräsentation der CORINE Objekte durch ihre einzelnen Bestandteile und vergleicht die gefundenen Strukturen mit der Wissensbasis. Semantisch homogen aufgebaute Klassen, wie Wälder und Siedlungen oder Protoklassen mit eindeutigen Merkmalen, beispielsweise zur Bestimmung von Grünland durch die Phänologie, können durch den bottom–up Ansatz identifiziert werden. Das übergeordnete CLC Objekt kann direkt aus den Bestandteilen zusammengebaut und einer Klasse zugewiesen werden. Semantisch heterogene Klassen, wie zum Beispiel bestimmte Sammelklassen (Komplexe Parzellenstrukur), können durch ihre Bestandteile validiert werden, indem die Bestandteile eines existierenden CLC Objektes mit der Wissensbasis auf Konsistenz untersucht werden (top–down Ansatz). Eine a-priori Datengrundlage ist für die Erkennung dieser Klassen essentiell. Die Untersuchung der drei Testgebiete (Frankfurt, Berlin, Oldenburg) zeigte, dass von der CORINE LC Nomenklatur 13 Klassen identifiziert und weiteren 14 Klassen validiert werden können. Zehn Klassen können durch diese Methodik aufgrund fehlender Merkmale oder Zusatzdaten nicht klassifiziert werden. Die Gesamtgenauigkeit der automatisierten Klassifikation für die Testgebiete beträgt zwischen 70% und 80% für die umgesetzten Klassen. Betrachtet man davon einzelne Klassen, wie Siedlungs-, Wald- oder Wasserklassen, wird aufgrund der verwendeten Merkmale eine Klassifikationsgenauigkeit von über 90% erreicht. Ein möglicher Einsatz der entwickelten Software gnosis liegt in der Unterstützung einer kommenden CORINE Aktualisierung durch die Prozessierung der identifizierbaren Klassen. Diese CLC Klassen müssen vom Interpreten nicht mehr überprüft werden. Für bestimmte CLC Klassen aus dem Top-down Ansatz wird der Interpret die letzte Entscheidung aus einer Auswahl von Klassen treffen müssen. Weiterhin können die berechneten Merkmale, wie die temporalen Eigenschaften und der Versiegelungsgrad dem Bearbeiter als Entscheidungsgrundlage zur Verfügung gestellt werden. Der Einsatz dieser neu entwickelten Methode führt zu einer Optimierung des bestehenden Aufnahmeverfahrens durch die Integration von semi-automatisierten Prozessen.
Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein Aussterben der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen oder nutzentheoretischen Annahmen beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. Für das Forschungsprojekt konnten für einen Untersuchungsraum in Nordschweden (Funktionalregion Umea) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden. Da auf der Angebotsseite die Umsätze der Geschäfte ebenso bekannt sind, können die Summen der von den Agenten dort allozierten Kaufkraftbeträge mit denselbigen verglichen werden. Dies erlaubt die Quantifizierung einer Schätzgüte für die Geschäftsumsätze mittels eines Gütemaßes. Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung.
Klimatische wie auch strukturelle Einflüsse haben in einem sich wandelnden Wirkungsgefüge an der Reliefentwicklung des Spessarts mitgewirkt. Seit dem ausgehenden Jura wurde die mesozoische Gesteinsauflage zunächst unter tropoiden Bedingungen von undifferenzierten Verwitterungs- und Abtragungsprozessen sukzessive aufgearbeitet. Eine zunehmend differenzierte Formung und Inwertsetzung des strukturellen Inventars ist mindestens seit dem Untermiozän feststellbar. Klimatische Veränderungen, unterstützt von tektonischen Aktivitäten haben sich früher als in anderen Mittelgebirgsregionen auf die Reliefgestaltung ausgewirkt. Rheinische Elemente tektonischer Deformationen setzen sich bereits im Oligozän durch, wie Untersuchungen der Tonlagerstätte Klingenberg belegen. Die untermiozäne Reliefdifferenzierung wird anhand der Sedimente und Vulkanite des Schlüchterner Beckens deutlich. Sedimente der Hanau-Seligenstädter Senke liefern Hinweise über die Ausräumung der Sandsteinschichten im Vorderen Spessart und die Entwicklung der Sandsteinstufe. Durch restriktive Flächenbildung im Stufenvorland wurde die Sandsteinstufe lagekonstant herauspräpariert. Der im Bereich des Stufenhanges und der Auslieger-Inselberge verbreitete Sandstein-Saprolit belegt den morphogenetischen Zusammenhang mit der tropoiden Verwitterungsdynamik. Die jungtertiäre und pleistozäne Formung hat zu einer Akzentuierung, die holozänen Prozesse zu einer lokalen Nivellierung des Reliefs beigetragen. Mit Hilfe des Geographischen Informationssystems (GIS) wurden morphogenetisch relevante Parameter, z.B. das Formeninventar, tertiäre Verwitterungsbildungen oder die Tektonik erfasst und thematisch überlagert. Eine morphologische Landschaftsdifferenzierung des Spessarts wurde anhand Geomorphologischer Raumeinheiten erarbeitet.
Die Bewässerungslandwirtschaft in Mittelasien ist geprägt von schwerwiegenden ökologischen und ökonomischen Problemen. Zur Verbesserung der Situation auf dem hydrologischen Sektor wird daher seitens der mittelasiatischen Interstate Commission for Water Coordination (ICWC) die Einführung des Integrated Water Resource Management (IWRM) gefordert. Wichtige Herausforderungen zur Optimierung der Wassernutzung im Aralsee-Becken sind dabei die Schaffung von Transparenz sowie von Möglichkeiten zur Überwachung der Landnutzung und der Wasserentnahme in den Bewässerungssystemen. Im Detail fokussierte diese Arbeit auf das Bewässerungssystem der Region Khorezm im Unterlauf des Amu Darya südlich des Aralsees. Die Arbeit zielte darauf ab, (1) objektive und konsistente Datengrundlagen zum Monitoring der Landnutzung und des Wasserverbrauchs innerhalb des Bewässerungslandes zu schaffen und (2) auf Basis dieser Ergebnisse die Funktionsweise des Bewässerungssystems zu verstehen sowie die Land- und Wassernutzung der Region zu bewerten. Um diese Ziele zu erreichen, wurden Methoden der Fernerkundung und der Hydrologie miteinander kombiniert. Fernerkundliche Schlüsselgrößen der Arbeit waren die Kartierung der agrarischen Landnutzung und die Modellierung der saisonalen tatsächlichen Evapotranspiration. Es wurde eine Methode vorgestellt, die eine Unterscheidung verschiedener Landnutzungen und Fruchtfolgen der Region durch die temporale Segmentierung von Zeitserien aus 8-tägigen Kompositen von 250 m-Daten des MODIS-Sensors ermöglicht. Durch die mehrfache Anwendung von Recursive Partitioning And Regression Trees auf deskriptive Statistiken von Zeitseriensegmenten konnte eine hohe Stabilität erzielt werden (overall accuracy: 91 %, Kappa-Koeffizient: 0,9). Täglich von MODIS aufgezeichnete Landoberflächentemperaturen (LST) bildeten die Basis zur fernerkundungsbasierten Modellierung der saisonalen tatsächlichen Evapotranspiration (ETact) für die sommerliche Vegetationsperiode. Aufgrund der hohen zeitlichen und groben räumlichen Auflösung der verwendeten MODIS-Daten von 1 km waren leichte Modifikationen des zur Modellierung eingesetzten Surface Energy Balance Algortihm for Land (SEBAL) erforderlich. Zur Modellierung von ETact wurden MODIS-Produkte (LST, Emissionsgrad, Albedo, NDVI und Blattflächenindex) und meteorologische Stationsdaten aus Khorezm verwendet. Die Modellierung des fühlbaren Wärmeflusses, einer Komponente der Energiebilanzgleichung an der Erdoberfläche, erfolgte mittels METRIC (High Resolution and Internalized Calibration), einer Variante des SEBAL. Die Landnutzungsklassifikation fungierte als zentraler Eingangsparameter, um eine automatisierte Auswahl der Ankerpunkte des Models sicherzustellen. Da innerhalb der MODIS-Auflösung aufgrund der Mischpixelproblematik keine homogen feuchten oder trockenen Bedingungen im Bewässerungsgebiet gefunden werden konnten, wurden die Landnutzungsklassifikation, der NDVI und die ASCE-Referenz-Evapotranspiration zur Abschätzung des tatsächlichen Zustands an den Ankerpunkten herangezogen. Weiterhin wurden umfassende Geländemessungen durchgeführt, um in der Vegetationsperiode 2005 die Zu- und Abflussmengen des Wasser von und nach Khorezm zu bestimmen. Die abschließende Bewertung der Land- und Wassernutzung basierte letztendlich auf der Bildung von Wasserbilanzen und der Berechnung anerkannter Performanceindikatoren wie der Ratio aus Drainage und Wasserentnahme oder der depleted fraction. Für die landwirtschaftliche Nutzung im Rayon Khorezm wurde für die Sommersaison 2005 eine Wasserentnahme von 5,38 km3 ermittelt. Damit übertrafen die Messergebnisse die offiziell verfügbaren Daten der ICWC um durchschnittlich 37 %. Auf die landwirtschaftliche Fläche bezogen ergab sich für Khorezm im Jahr 2005 eine mittlere Wasserentnahme von 22.782 m3/ha. In den Subsystemen schwankten diese Werte zwischen 17.000 m3/ha und 30.000 m3/ha. Allerdings konnte an den Systemgrenzen, an denen die Messungen durchgeführt werden, der aus den fernerkundungsbasierten Modellierungen auf WUA-Level erwartete abnehmende Gradient der Wasserentnahme zwischen Oberlauf und Unterlauf nicht nachvollzogen werden. Als Ursache für diese Diskrepanz sind vor allem die Versickerungsverluste im Kanalsystem zu nennen, die den Grundwasserkörper großräumig auffüllen und auf Feldebene nicht zur oberflächlichen Bewässerung zur Verfügung stehen. Monatliche Bilanzierungen und die Analyse der Performanceindikatoren führten zu denselben Ergebnissen. In dieser Arbeit konnte gezeigt werden, dass sich mit Methoden der Fernerkundung objektive und konsistente Daten der agrarischen Landnutzung und des Wasserverbrauchs für ein regionales Monitoring erstellen lassen. Da in den benachbarten Regionen gleiche atmosphärische Bedingungen und ähnliche Anbausorten anzutreffen sind, ist anzunehmen, dass beide Verfahren auch auf der Planungsebene in einem IWRM für die übrigen Mittel- und Unterläufe von Amu Darya und Syr Darya ein hohes Anwendungspotenzial besitzen.
Diese Studie entwickelt und testet ein Ausbildungskonzept für die Lehrerausbildung im Fach Geographie am Beispiel der Bildungseinrichtung Studienhaus Geographie des Schullandheims Bauersberg bei Bischofsheim a.d. Rhön. Die theoretischen Überlegungen beinhalten einen Überblick über die bestehenden pädagogischen Zielsetzungen, die administrativen Grundlagen, die aufgezeigten Defizite der universitären Lehrerausbildung wie die daraus resultierenden Reformansätze und Forderungen an eine qualifizierte Lehrerausbildung. Für das fallbeispielhaft entwickelte Konzept einer Lehrerausbildung im Fach Geographie stellen die professionstheoretischen Ansätze zu einer kompetenzorientierte Lehrerausbildung die Basis dar, auf der die pädagogischen Zielsetzungen einer auf Professionalität ausgerichteten Lehrerausbildung formuliert werden. Schwerpunktmäßig basiert das Ausbildungskonzept auf dem bildungstheoretischen Dreieck zur Neustrukturierung der Lehrerbildung von BAYER/CARLE/WILDT, welches die Vernetzungsmöglichkeiten der die Lehrerausbildung kennzeichnenden Bezugssysteme Wissenschaft (im Sinne von Theorie), Praxis (im Sinne von Berufsfeldbezug) und Person (im Sinne von Professionalität) beschreibt. Grundlage des Ausbildungskonzeptes stellen ebenfalls die administrativen Vorgaben der bayerischen Lehrerausbildung dar. Eine wesentliche Rolle für die Konzeption dieser Form der Ausbildung am Standort Studienhaus Geographie spielen neben den strukturellen Voraussetzungen dieser Einrichtung die geäußerten Defizite der universitären Lehrerausbildung, die jeweils in der Aussage einer zu wenig an der Praxis orientierten Ausbildung gipfeln. Untersuchungen zur Qualität der universitären Geographielehrerausbildung geben Hinweise zu einer intensiveren Vermittlung von Methodenkompetenz bezüglich des Unterrichtsprinzips Handlungsorientierung und des Einsatz von geographischen Arbeitstechniken wie Experimente, Exkursionen/Arbeiten im Gelände etc.. Unterstützt werden die sich daraus ableitenden Optimierungsvorschläge durch die Realisierung verschiedener Reformansätze im Fach Geographie wie fächerübergreifendes, projektorientiertes, in der Zusammenarbeit mit der Schulpraxis stattfindendes Arbeiten an außerschulischen Lernorten und durch die von den jeweiligen Fachvertretern formulierten Richtlinien zur Optimierung der Lehrerausbildung. Das Ausbildungskonzept basiert auf interdisziplinär angelegten Lehrveranstaltungen, die in Kooperation der Geographiedidaktik mit der Physischen Geographie, der Humangeographie, der Geologie, der Mineralogie und der Schulpraxis und zur Erarbeitung unterrichtsrelevanter geographischer Ausbildungsinhalte stattfinden. Kennzeichnend ist die Veranstaltungsstruktur Blockveranstaltung, welche handlungs- und projektorientierte, auf Teamarbeit ausgerichtete Arbeitsformen fördert und die gemeinsame Erarbeitung von Ausbildungsinhalten aus fachdidaktischer und fachwissenschaftlicher Perspektive in der Theorie mit anschließender Anwendung bei Geländearbeiten. Eine Umsetzung der theoretischen Kenntnisse in fachadäquates, didaktisch-methodisches Unterrichtsmaterial/-vorhaben wie deren Erprobung mit Schülern schließt sich an. Den Abschluss dieser Ausbildungsform bildet eine gemeinsame Evaluation und Reflexion der gesetzten fachdidaktischen, fachwissenschaftlichen und hochschuldidaktischen Zielsetzungen bezüglich der Ausbildungsinhalte und -methode. In der qualitativen Studie wurde die Eignung des Standortes Studienhaus Geographie für Lehrveranstaltungen, die gemäß dem Konzept der theoriegeleiteten praxisorientierten Lehrerausbildung stattfinden, evaluiert. Lehrende der Geographie/Geologie/Mineralogie, Studierende und Lehrkräfte wurden in Leitfadeninterviews befragt. In der quantitativen Studie evaluierten alle teilgenommenen Studierende mittels eines Fragebogens dieses Ausbildungskonzept. Sowohl aus der Perspektive der Lehrenden der Fachwissenschaft als auch aus derjenigen der Geographiedidaktik und der Studierenden stellt diese Einrichtung aufgrund ihrer Lage und räumlichen wie materiellen Ausstattung einen geeigneten Ausbildungsort für eine universitäre Lehrerausbildung, die nach pädagogischen, fach- und hochschuldidaktischen Kriterien organisiert ist, dar.
Städtische Agglomerationen zeichnen sich durch eine zunehmende Dynamik ökologischer, ökonomischer und sozialer Veränderungen aus. Um eine nachhaltige Entwicklung urbaner Räume zu gewährleisten, bedarf es verstärkt innovativer Methoden zur Erfassung der raumwirksamen Veränderungen. Diesbezüglich hat sich die satellitengestützte Erdbeobachtung als kostengünstiges Instrumentarium zur Erhebung planungsrelevanter Informationen erwiesen. Dabei wird in naher Zukunft eine neue Generation von Radarsatelliten zur Verfügung stehen, deren Leistungsvermögen erstmals die operationelle Analyse von Siedlungsflächen auf Grundlage von Radardaten ermöglicht. Vor diesem Hintergrund ist es das Ziel der Dissertation, auf der Basis einer nutzerorientierten Methodik das Potential hochauflösender SAR-Daten zur automatisierten Erfassung und Analyse von Siedlungsflächen zu untersuchen. Die Methodik setzt auf dem objektorientierten Bildanalysekonzept der Software eCognition auf. Dabei haben sich der SAR-Speckle sowie Schwächen hinsichtlich der Güte der Bildsegmentierung bzw. der Bestimmung geeigneter Segmentierungseinstellungen als Limitierungen erwiesen. Folglich liegt ein erster Schwerpunkt auf der Optimierung und Stabilisierung einer segmentbasierten Auswertung von Radardaten. Hier hat sich gezeigt, dass mit Blick auf Siedlungsareale weiterhin Optimierungsbedarf hinsichtlich einer strukturerhaltenden Bildglättung besteht. Daher wird zunächst ein neuer Filteransatz entwickelt, der gegenüber den etablierten Techniken eine konsequentere Reduzierung des Speckle in homogenen Bildarealen gewährleistet und dabei gleichsam die hochfrequente Information in stark strukturierten Aufnahmebereichen bewahrt. Die Schwierigkeiten im Zusammenhang mit der Güte und Übertragbarkeit der Bildsegmentierung werden ebenso wie die Schwächen im Hinblick auf die zielgerichtete Definition der optimalen Segmentierungsparameter durch die Entwicklung eines klassenbasierten Ansatzes zur Segmentoptimierung in der Software-Umgebung von eCognition reduziert. Der zweite Schwerpunkt dieser Dissertation widmet sich der Entwicklung von Konzepten zur automatisierten Analyse der regionalen und lokalen Siedlungsstruktur. Im regionalen Kontext liegen die Identifizierung von Siedlungsflächen und die Erfassung einfacher Landnutzungsklassen im Fokus der Arbeiten. Dazu wird ein Regelwerk zur Auswertung einfach-polarisierter SAR-Aufnahmen erstellt, das sich maßgeblich auf räumlich und zeitlich robuste textur-, kontext- und hierarchiebezogene Merkmale stützt. Diese Wissensbasis wird anschließend so erweitert, dass sie die Analyse dual-polarisierter, bifrequenter oder kombinierter optischer und SAR-basierter Bilddaten ermöglicht. Wie die Ergebnisse zeigen, können Siedlungsflächen und Landnutzungsklassen bereits über einfach-polarisierte SAR-Aufnahmen mit Genauigkeiten von rund 90 Prozent erfasst werden. Durch die Einbindung einer weiteren Polarisation, Frequenz oder optischer Daten lässt sich diese Güte auf Werte von bis zu 95 Prozent steigern. Die lokalen Analysen zielen auf die thematisch und räumlich differenzierte Erfassung der Landnutzung innerhalb bebauter Areale ab. Die Untersuchung basiert auf der synergetischen Auswertung einer hochauflösenden Radaraufnahme und eines bedeutend geringer aufgelösten optischen Datensatzes. Die isolierte Analyse von SAR-Aufnahmen reichte hingegen selbst bei der Kombination verschiedener Frequenzen oder Polarisationen nicht zur Charakterisierung der kleinteiligen, heterogenen Stadtlandschaft aus. Im Kontext der synergetischen Auswertung dient die SAR-Aufnahme vornehmlich zur Extraktion der urbanen Topografie, während der optische Datensatz wichtige Merkmale zur Differenzierung der erfassten Struktureinheiten in die Kategorien Gebäude, versiegelte Freifläche, unversiegelte Freifläche und Baumbestand beisteuert. Das Resultat zeigt, dass sich trotz des synergetischen Ansatzes lediglich eine Genauigkeit von 65 Prozent erzielen lässt. Dennoch können Gebäude dabei mit einer Güte von 72 Prozent vergleichsweise akkurat erfasst werden. Im Hinblick auf die Demonstration des siedlungsbezogenen Anwendungspotentials höchstauflösender SAR-Daten lässt sich resümieren, dass eine automatische Ableitung siedlungsstruktureller Merkmale im komplexen städtischen Umfeld aufgrund der eingeschränkten spektralen Aussagekraft und der starken Geometrieabhängigkeit des Signals mit signifikanten Schwierigkeiten verbunden ist. Dennoch hat sich gezeigt, dass diese Limitierungen in gewissem Umfang über den Ansatz der multiskaligen, objektorientierten Klassifizierung kompensiert werden können. Dabei lassen sich die regionalen Siedlungs- und Landnutzungsmuster mit überzeugenden Genauigkeiten erfassen, während die Betrachtung der lokalen Siedlungsstruktur eindeutig die Grenzen der Radartechnik im Hinblick auf die Analyse komplex strukturierter Stadtlandschaften aufzeigt.
Die Dornbusch-Savannen Zentralnamibias unterliegen großen Veränderungen. Teilweise handelt es sich dabei um Degradationsprozesse, die zu einem Verlust an Artenvielfalt und auch ökonomischem Wert dieser überwiegend als Rinderweide genutzten Systeme führen. Die Degradation drückt sich in der Savannenlandschaft zum einen durch Verkahlung aus (Desertifikation), vor allem aber durch die massive Ausbreitung einzelner Dornbuscharten wie Acacia mellifera, die zur Umwandlung gemischter Savannenvegetation in artenarme Dominanzbestände führt (Verbuschung). Andere Veränderungen erfolgen spontan und stellen eine Reaktion der Vegetation auf aktuelle Niederschlagsereignisse dar. Diese phänologischen Änderungen sind in der Regel reversibel. Als typische Veränderungsmechanismen konnten nutzungsbedingter und natürlicher reversibler oder irreversibler Vegetationsverlust und die Wiederbesiedelung verkahlter Flächen identifiziert werden. Des Weiteren gibt es moderate Schwankungen der Vegetationsdichte, zu denen die Verbuschungsprozesse und die Buschsterbe gehören. Die Buschsterbe ist eine Pilzerkrankung, die zum flächenhaften Absterben von Akazienbüschen, vor allem von Ac. mellifera führt. Auch der Einfluss von Feuer kann eine Ursache für Veränderungen sein. Um insbesondere das Ausmaß der Degradationsprozesse in Zentralnamibia zu erfassen und zu quantifizieren, wurde in dieser Arbeit ein fernerkundliches Change-Detection-Verfahren auf der Basis von Landsat-TM und ETM-Daten entwickelt. Die methodische Basis hierfür stellten das Image-Differencing und die modifizierte selektive Hauptkomponentenanalyse (sPCA) dar. Um auch Formparameter der veränderten Flächen zur Unterscheidung von Veränderungstypen heranziehen zu können, wurden die Ergebnisse des Differencings segmentiert und das Maß der Kompaktheit(Compactness) der Segmente extrahiert. Die Klassifikation der charakteristischen Veränderungen erfolgte über Ratios und Schwellenwerte von Einzelkanälen dieser Change-Datendatensätze und der Compactness, die aus charakteristischen Veränderungssignaturen abgeleitet wurden. Diese wurden anhand von Referenzflächen ermittelt, die auf Felddaten basierten. Als Referenz zur Ableitung der Signaturen diente dabei der Veränderungsdatensatz aus dem Vergleich der Landsat- Szenen von Mai 2000 und April 2003. Diese bitemporale Change-Detection-Methode wurde für das Hauptuntersuchungsgebiet (A) in Zentralnamibia auf insgesamt 8 Kombinationen aus 7 Landsat-Szenen im Zeitraum von 1984 bis 2003 angewendet. Damit wurde die Übertragbarkeit der Methode auf verschiedene Zeitschnitte getestet. Zur Abschätzung der Übertragbarkeit auf andere Naturräume wurde die Methode zudem auch auf jeweils ein Szenenpaar in der ariden zwergstrauchdominierten Nama-Karoo in Südnamibia und in einem feuchteren Dornsavannen-Trockenwaldgebiet in der Kavango-Region Nordnamibias angewendet. Die Klassifikatoren zur Trennung der einzelnen Veränderungsklassen lieferten unterschiedlich gute Ergebnisse. Die Verkahlungs- und Wiederbesiedelungsprozesse wurden sehr zuverlässig detektiert, wobei allerdings die Unterscheidung von natürlicher und nutzungsbedingter Verkahlung anhand der Compactness-Werte den Anteil an anthropogen veränderten Flächen auffällig unterschätzte. Die Validierung anhand von Farmerauskünften bzw. vergleichenden Fotos zum Aufnahmezeitpunkt lieferte dabei in allen drei Untersuchungsgebieten ähnliche Ergebnisse. Moderate Veränderungen der Vegetationsdichte wurden in allen drei Untersuchungsgebieten überwiegend gut erkannt. Eine eindeutige Zuordnung auf Veränderungen des Busch- oder des Grasstratums war allerdings nicht immer möglich. Die Detektion von rezenten Brandflächen in Zentral- und Nordnamibia verlief zufrieden stellend. Mehrere Monate alte Brandflächen ließen sich mit dem dazu entwickelten Klassifikator jedoch nicht von anderen phänologisch und nutzungsbedingten Veränderungen trennen. Zur Analyse der Signifikanz der Change-Detektion-Ergebnisse wurden verschiedene Niederschlagsdaten und NDVI-Zeitreihen für den jeweiligen Beobachtungszeitraum hinzugezogen. Es zeigte sich, dass die Change-Detection-Ergebnisse stark mit den Niederschlagssummen korrelierten, die in der jeweiligen Regenzeit bis zum Aufnahmezeitpunkt der einzelnen Landsat-Szenen gefallen waren. War die Regenzeit zum ersten Vergleichszeitpunkt ergiebiger als zum zweiten, wurde überwiegend Vegetationsrückgang detektiert. War die zweite Regenzeit hingegen feuchter als die erste, wurde überwiegend Vegetationszunahme detektiert. Die Größe der Niederschlagsdifferenz zwischen beiden Zeitpunkten spiegelte sich zudem im Flächenanteil der einzelnen Veränderungsklassen wider. Durch diesen starken phänologischen, d.h. niederschlagsbedingten Veränderungsanteil wurden „echte“ Veränderungen z.T. verschleiert oder verstärkt. Dieses Ergebnis korrespondiert mit den Ergebnissen vieler anderer Change-Detection-Arbeiten im semiariden Raum. Als relevante Veränderungen wurden daher nur solche bewertet, die dem allgemeinen phänologischen Trend im Vergleichszeitraum entgegenstanden. So konnten z.B. Flächen, auf denen Vegetationszuwachs detektiert wurde, obwohl die Regenzeit zum zweiten Aufnahmezeitpunkt schwächer war als die erste, als tatsächlich verbuscht gelten. Unter Berücksichtigung dieser niederschlagsbedingten Einflüsse wurden im Untersuchungsgebiet in Zentralnamibia die Flächenanteile bestimmt, für die Degradation detektiert wurde. Demnach hat im Vergleich der Szenen von 1984 und 2003 auf etwa 681 km², entsprechend 2,8 % der Gesamtfläche des Untersuchungsgebietes, eine niederschlagsunabhängige Verdichtung der Vegetation, d.h. eine Verbuschung stattgefunden. Die Lage der betroffenen Gebiete korrespondiert mit der in der Literatur genannten Region (vgl. BESTER 1998/99). Des Weiteren wurde im Untersuchungszeitraum von 1984 bis 2003 auf ca. 0,53 km², entsprechend 0,002 % der Gesamtfläche des Untersuchungsgebietes irreversible Verkahlung, d.h. Desertifikation detektiert. Damit stellt in Zentralnamibia die Veränderung durch Verbuschung die flächenmäßig größte Bedrohung für Artenvielfalt und landwirtschaftliche Tragkraft der Savannen dar. Aufgrund der starken phänologischen Einflüsse konnten von der Buschsterbe betroffene Regionen im Untersuchungsgebiet nicht sicher erkannt und quantifiziert werden. Kleinräumig konnten im Untersuchungsgebiet in Zentralnamibia Farmen identifiziert werden, die in einem oder mehreren Ergebnisbildern durch besondere Veränderungsmuster auffielen. Zumeist handelte es sich um Degradationserscheinungen wie Verbuschung und Verkahlung, für die bei der Besichtigung während der Feldkampagne im Jahr 2004 oft ein Zusammenhang mit ungünstigen Landnutzungspraktiken, d.h. vor allem Überweidung hergestellt werden konnte. Des Weiteren wurden starke Veränderungen durch Entbuschungsmaßnahmen, kurzzeitige Weideeinflüsse und auch einzelne wiederhergestellte Bestände detektiert. Nutzungsbedingte Degradationserscheinungen treten im Untersuchungsgebiet in Zentralnamibia insgesamt nur kleinräumig auf einzelnen Farmen auf. Für das Untersuchungsgebiet in Südnamibia lagen zwei Landsat-Szenen für den kurzen Vergleichszeitraum von 2001 zu 2002 vor. Anhand dieser konnten unter Zuhilfenahme von Niederschlagsdaten stark degradierte Flächen identifiziert werden. Während auf den intakten Flächen aufgrund der besseren Regenzeit zum zweiten Aufnahmezeitpunkt wie erwartet Vegetationszuwachs detektiert wurde, führten ebendiese reichlichen Niederschläge im degradierten Gebiet zu einer großflächigen Erosion der Vegetationsdecke. Dies ist vermutlich auf die größere Geschwindigkeit des oberflächlich abfließenden Regenwassers in der spärlichen Vegetationsdecke der degradierten Fläche zurück zu führen. In den übrigen Gebieten reduzierte hingegen die dichtere Vegetation den Oberflächenabfluss, wodurch mehr Wasser versickerte und verstärktem Pflanzenwachstum zur Verfügung stand. Im Untersuchungsgebiet in Nordnamibia wurden zwei Landsat-Szenen von April 1991 und April 2000 verglichen. Die gravierendste Veränderung in diesem Zeitraum war nutzungsbedingte Verkahlung, die auf rund 4,4 % der Gesamtfläche, entsprechend 81 km² detektiert wurde. Ursache ist hier die Umwandlung von Dornbuschsavanne in Acker- oder Siedlungsraum. Demgegenüber wurde aber nur für 1,17 % der Gesamtfläche, entsprechend 21,76 km², Wiederbesiedelung detektiert. Dies sind zumeist Agrarflächen, die (kurzzeitig) aus der Nutzung genommen wurden. Das Ergebnis dokumentiert den zunehmenden Siedlungsdruck in der Kavango-Region. Die seit den 1970er Jahren verbesserte Infrastruktur ermöglicht hier immer mehr Menschen die Landnahme, Viehhaltung und Siedlung. Die Ergebnisse dieser Arbeit zeigen, dass mit der hier entwickelten Change-Detection-Methode unter Berücksichtigung der Niederschlagshistorie in den semiariden und ariden Testgebieten signifikante Veränderungen der Vegetation in verschiedenen Landschaftsräumen detektiert werden können. Weitere Anwendungen der Methodik auf andere Testgebiete im südlichen und westlichen Afrika am Rande dieser Arbeit zeigten ebenfalls gute Ergebnisse, die allerdings bislang aus Mangel an Referenzdaten nicht validiert werden konnten. Zur zukünftigen Operationalisierung der Methodik sollte vor allem eine verbesserte Trennbarkeit von nutzungsbedingten und natürlichen Verkahlungsprozessen angestrebt werden. Des Weiteren wird eine Anpassung der Klassifikatoren auf andere Sensoren wie z.B. ASTER angedacht, um auch nach dem Ausfall von Landsat 7 im Jahr 2003 aktuelle Daten vergleichen zu können. Um den phänologischen Einfluss von unterschiedlichen Niederschlagshistorien im Vorfeld der Eingangsdaten zu minimieren, wäre zudem die Implementierung eines Kalibrierungsfaktors denkbar, der auf Niederschlags- oder auch MODIS-NDVI-Daten der entsprechenden Zeit- und Untersuchungsräume basiert. Das Ergebnis wäre eine sichere Methode zur Detektion von regionalen Veränderungen im semiariden Raum. Die Identifizierung dieser Veränderungen, speziell von Degradationserscheinungen stellt die Basis dar, dort gezielt nach den Ursachen zu suchen und Handlungsempfehlungen zu entwickeln, um einer fortschreitenden Zerstörung von Lebensraum, Artenvielfalt und ökonomischem Potenzial der betroffenen Flächen entgegen zu wirken.
New urbanism in US-amerikanischen Stadtregionen : ein effektives Planungskonzept gegen Urban Sprawl?
(2005)
The research project examines Urban Sprawl in the United States and evaluates the alternative planning concept New Urbanism on a regional and local scale. The combination of qualitative and quantitative data sources explores the effectiveness of regional planning agencies on a macro level, as well as the success of mixed-use neighborhoods on a micro level. The results are based on three cities of the United States (Atlanta, Denver, and Portland), 80 qualitative interviews with urban experts, and over 160 questionnaires with residents of three New Urbanism neighborhoods (Riverside, Atlanta; Prospect, Denver; Orenco Station, Portland). The thesis shows and explains the challenges facing contemporary metropolitan areas and neighborhood development projects, the role and impact that public administrations and other policy makers have in this field, as well as how economic decisions on a local, regional, and global level can shape, change and develop urban landscapes. A central argument is that only superordinated regional planning authorities will be able to contain urban sprawl and to face its related complex socio-economic, administrative, and environmental problems. Also, New Urbanism neighborhoods can only be successful on a micro level when they are embedded in an all-embracing and socially well-balanced regional plan. This integrative two-way perspective from a macro and a micro level can enable us to understand urban structures, processes and problems in a more comprehensive way.
Massenbewegungen (in englischer Literatur landslides, in französischer Literatur glissements de terre) sind das Symptom von Hanginstabilitäten in einem Naturraum. Die Wahl des Überbegriffs Massenbewegungen und die Untergliederung der einzelnen Stadien des Prozessablaufs wurden im Rahmen eines pragmatischen Ansatzes dieser Arbeit neu festgelegt. Im Untersuchungsgebiet im Elbursgebirge im Norden des Iran stellen Massenbewegungen ein Phänomen dar, welches die Kulturlandschaft bedroht, aber auch durch sie selbst bedingt ist. In dieser Arbeit wurden Abhängigkeitsbeziehungen zwischen menschlichem Eingriff und natürlichem Stabilitätspotential untersucht. In einem heuristischen Ansatz wurden Faktoren analysiert, welche Massenbewegungen bedingen oder auslösen. Faktoren wie geologischer Untergrund, Bodenauflage, Hangneigung, Exposition, Hydrologie, Vegetationsbedeckung oder Straßenbau wirken in unterschiedlicher Weise auf die Verursachung von Massenbewegungen ein. Die Analyse der Tragweite und Relevanz dieser Faktoren erfolgte mittels einer Faktorenüberlagerung in einem Geographischen Informationssystem (GIS). Das GIS bildete die Schnittstelle für Fernerkundungsdaten, Kartenmaterial, Geländeaufnahme und das digitale Geländemodell (DEM, bzw. DTM). Neben Photos, Beschreibungen, GPS-Punkten und Bodenproben aus der Geländeaufnahme im Iran wurden CORONA- und LANDSAT-ETM+ - Satellitendaten sowie Klimaaufzeichnungen, Topographische und Geologische Karten auf ihre Aussagekraft hin analysiert. Durch Verschneidung der Datenebenen konnten Gefährdungszonen hinsichtlich Massenbewegungen ausgewiesen werden. Die Ergebnisse wurden mit den vorhandenen Befunden über aufgetretene Massenbewegungen überprüft. Die Übereinstimmung der Gefährdungszonen mit der Verteilung vorgefundener Massenbewegungsformen bestätigte die Richtigkeit des methodischen Vorgehens. Bei der Auswahl und Bearbeitung von Daten und Methodik lagen die Schwerpunkte im Anwendungsbezug und in der Qualitätssicherung. Zur Erstellung des digitalen Höhenmodells wurde ein eigener Ansatz zur Extraktion von Höhenlinien aus Topographischen Karten verfolgt. Das Ergebnis der Arbeit ist ein kostengünstiger, pragmatischer und übertragbarer Ansatz zur Bewertung des Gefährdungspotentials von Massenbewegungen.
Ziel dieser Arbeit war es, die Grundwasserneubildung im Einzugsgebiet des Ouham mit den vorhandenen zum Teil sehr lückenhaften Daten zu bestimmen. Hierbei sollten unterschiedliche Methoden in der wechselfeuchten, subtropischen Klimazone verglichen und bewertet werden. Das Arbeitsgebiet umfasst das Einzugsgebiet des Oberlaufes des Ouham, eines Flusses im Nordwesten der Zentralafrikanischen Republik. Das hier untersuchte Flussnetz gehört zum Einzugsgebiet des Chari und fließt dem abflusslosen Tschadbecken zu. Das Einzugsgebiet des Ouham liegt in der sahel-sudanischen Klimazone. Zwischen November und März bzw. April herrschen hier trockene Nordostwinde vor, d.h. messbarer Oberflächenabfluss findet in der Trockenzeit lediglich in den Flüssen erster Ordnung statt. Von Mai bis Oktober bestimmen feuchte Südwestwinde das Wetter, es bilden sich zusätzlich zu den Abflüssen erster Ordnung Abflüsse dort, wo es Morphologie und Bodenverhältnisse zulassen. Das Abflussverhalten des Ouham wird im Untersuchungsgebiet an fünf Flusspegeln gemessen. Die größten Abflussspenden treten im Westen auf, mit der Abnahme des Niederschlags nach Osten nimmt auch die Abflussspende der einzelnen Einzugsgebiete ab. Die maximalen Abflussmengen der einzelnen Pegel werden in den westlicheren Teileinzugsgebieten im September gemessen, in den östlicheren Teileinzugsgebieten erstreckt sich das Maximum über September und Oktober bzw. Oktober. Der Niederschlag nimmt von Südwesten nach Nordosten kontinuierlich ab, dieser allgemeine Trend wird durch die Steigungsregen am Massiv von „Bakoré“ modifiziert. Niederschlagsreiche Jahre sind 1951 bis 1952, 1954 bis 1955, 1957, 1960, 1962, 1963 und 1969, ausgeprägt niederschlagsarme Jahre sind 1972, 1973, 1977, 1982 bis 1984 und 1986 bis 1987. Das Untersuchungsgebiet besteht zum größten Teil aus einem proterozoischen Granit-Gneis-Sockel, der im äußersten Südwesten von mesozoischen Sandsteinen bedeckt ist. Das gesamte Grundgebirge ist von einer Vielzahl von Störungen durchzogen, deren Hauptstörungsrichtung Nordwest – Südost, bzw. senkrecht dazu verläuft. Innerhalb großer Störungs- und Intrusionsbereiche ist das Gestein stärker geklüftet. Die Grundwasserneubildung wurde mit unterschiedlichen Methoden berechnet, zum erst auf der Basis von Abflussdaten nach drei unterschiedlichen Verfahren (WUNDT, KILLE, MAILLET), dann mit der Wasserhaushaltsgleichung und durch eine Modellierung der Wasserbilanz mit dem Programm MODBIL . Die ermittelten unterirdischen Abflüsse differieren deutlich. Am höchsten sind die Abflussmengen nach WUNDT, am niedrigsten sind die nach MAILLET berechneten. Für das Einzugs¬gebiet des Ouham, mit der vorhandenen, im Westen deutlich ausgeprägten Topo¬graphie und den heftigen schub¬weise erfolgenden Niederschlägen, wurde die nach KILLE ermittelten Grundwasserneubildungsraten als realistisch gegenüber den Grundwasserneubildungsraten nach WUNDT angesehen. Die Grundwasserneubildung nimmt aufgrund des unterschiedlichen Wasserdargebotes von Westen nach Osten ab, im Westen werden in niederschlagsreichen Jahren 150 mm/Jahr, während es im Osten lediglich 79 mm/Jahr sind. In niederschlagsarmen Jahren nimmt die Grundwasserneubildung von 106 mm/Jahr im Westen auf 64 mm/Jahr im Osten ab. Nach MAILLET wird eine Grundwasserneubildungsrate von 50 mm/Jahr im Westen und 26 mm/Jahr im Osten berechnet, sie stellt ein Mindestmaß an Grundwasserneubildung dar. Die Bestimmung der Grundwasserneubildung mit der Wasserhaushaltsgleichung wurde als Plausibilitätskontrolle der aus Abflussdaten ermittelten Werte durchgeführt. Die ermittelten Grundwasserneubildungsraten liegen deutlich über denen nach dem Verfahren von KILLE und MAILLET berechneten. In einem weiteren Verfahren wurde die Berechnung der Grundwasserneubildung durch Modellierung der Wasser¬bilanz mit dem Programm MODBIL durchgeführt. Hierbei werden vorhandene Punktdaten wie Niederschlag, Temperatur und Verdunstung mit primär existierenden Raumdaten wie Topographie, Morphologie, Landnutzung und Geologie in Raumdaten umgewandelt und auf Grundlage des Bodenwasserhaushaltes die aktuelle Verdunstung, der Abfluss und die Grundwasserneubildung berechnet. Die berechneten Mittelwerte von effektivem Niederschlag, potentieller und aktueller Verdunstung der einzelnen Teileinzugsgebiete lassen einen deutlichen West-Ost-Trend erkennen. Der höchste effektive Niederschlag fällt im westlichsten Einzugsgebiet und nimmt weiter nach Osten weiter ab. Potentielle und aktuelle Verdunstung nehmen von Westen nach Osten zu, wobei bei der aktuellen Verdunstung dieser Trend nicht sehr stark ausgeprägt ist. Das mittlere Abflussverhalten der Teileinzugsgebiete folgt keinem deutlichen West-Ost-Trend. Im Gegensatz dazu nimmt die Grundwasserneubildung von Westen nach Osten ab.
Die sechs untersuchten Au-Cu-Vorkommen südlich von Rehoboth befinden sich im östlichen Bereich des Rehoboth Inliers, dessen Geologie durch Kibarische Granitoide und Rhyolite der Gamsberg Granit Suite, Eburnische Granitoide der Piksteel Intrusiv Suite und prä-Piksteel Metasedimente der Rehoboth Sequenz dominiert wird, die grünschieferfaziell überprägt wurden. Au-Cu-Mineralisationen sind an spröd-duktile Scherzonen gebunden, die mit variablem Streichen nach NW, N oder NE einfallen. Die Scherzonen orientieren sich entlang von deformierten mafischen Gängen oder Einheiten von Metasedimenten, die in Eburnischen Granitoiden vorliegen. Imprägnationen mit Au- oder Cu-führenden Mineralen sind auf Bereiche von wenigen Metern um die Hauptvererzungen begrenzt. Während der Kompression der Damara Orogenese wurde ein zylindrischer Faltenbau mit ENE-WSW-streichenden Achsenebenen und eine parallel dazu verlaufende Foliation angelegt. Daraufhin bewirkte eine Schleppfaltung mit dextraler Komponente eine Rotation von Faltenachsen, Streckungslinearen und Faserharnischen in nordwestliche Richtungen. Vielerorts lassen Planare anhand von Faserharnischen eine dextrale Aufschiebung und/oder eine spätere Abschiebung mit sinistralen Charakter erkennen, die vereinzelt mit Zerrklüften von tauben Quarz, Karbonat und Chlorit assoziiert sind. Mylonite der Scherzonen sind durch Albitisierung, Serizitisierung und teils durch eine Illitisierung gekennzeichnet. Es liegen zwei Arten der Au-Cu-Mineralisation vor. Bei der Vererzung der Swartmodder Kupfer Mine handelt es sich um eine Eisenoxid-Cu-Au-Mineralisation (IOCG-Typ) mit einer massiven Magnetit-Mineralisation mit einer diese verdrängenden Sulfidmineralisation. Typisch für erstere sind eine Assoziation von Magnetit mit Apatit (±Monazit) und erhöhte Gehalte an U und LSEE. Die folgende Sulfidmineralisation beinhaltet Chalkopyrit und Carrollit. Innerhalb dieses Vorkommens treten keine mineralisierten Quarzadern, die für die Au-Cu-Mineralisation der übrigen untersuchten Minen charakteristisch sind. Die Au-führenden Quarzadern zeigen deutliche Merkmale der Deformation und Rekristallisation und orientieren sich entlang der Mylonite, die die Scherzonen charakterisieren. Die Au-Cu-Quarzmineralisationen sind an das Auftreten von Chalkopyrit gebunden. Dieser tritt im Erz der Golden Valley Mine mit Pyrit auf und enthält Einschlüsse von gediegenem Au, Petzit, Hessit, Stützit, Galenit/Clausthalit, Sphalerit und anderen Ag-Cu-Seleniden und Ag-Cu-Se-Sulfiden. Für diese Paragenese lässt sich eine minimale Bildungstemperatur von 300°C bei Te-Fugazitäten von logfTe2= -11 bis -6,5 und S-Fugazitäten von logfS2 = -7,5 bis -6,8 für das hydrothermale Fluid abschätzen. Der Chalkopyrit im Erz der Neuras Mine enthält Pyrit und Sphalerit und wurde teils durch eine komplexe Galenit-Bi-Ag-Sulfosalzparagenese verdrängt, die neben Galenit Wittichenit, Aikinit, Berryit, Emplektit und gediegen Bi enthält, die in Spuren Au führen. Isoliert im Quarz treten auch Aikinit, Berryit, Matildit, Akanthit/Argentit und mindestens eine unbekannte Ag-reiche Phase (Ag8Bi5Cu5S16) auf. Diese Paragenesen indizieren eine Verdrängung von Chalkopyrit bei Temperaturen zwischen 271 und 320°C bei niedrigen S- (logfS2 ≤ -11) und O2-Fugazitäten (logfO2 ≤ -37) aus einem Fluid, welches reich an Pb, Bi und Ag (+Au) gewesen sein muss. Bei der Golden Valley Mine und der Neuras Mine weisen Magnetit-Imprägnationen und einige Elementkorrelationen auf eine Ähnlichkeit mit einer IOCG-Lagerstättenbildung hin. Unabhängig von der texturellen Assoziation, der Lithologie bzw. deren Mylonitisierung variieren die Bildungstemperaturen von Chlorit zwischen 230 und 405°C. In den meisten Gesteinen zeigt Biotit Anzeichen einer Chloritisierung. Aus der Rücksetzung des K/Ar-Isotopensystems und den Si-Gehalten von Muskoviten ergeben sich minimale P-T-Bedingungen von 350±50°C und ca. 3,5 kbar für die Damara Metamorphose. Biotite und Muskovite in den Myloniten sind meist illitisiert. Dieses spiegelt sich auch in niedrigeren Illit-Kristallinitäten von Glimmerpräparaten wider, die Damara bzw. post-Damara Alter (Feinfraktionen) ergeben. Der Grad der Argillitisierung lässt sich durch die Evolution der Infiltration von niedrigtemperierten moderat-salinaren Fluiden bis hin zu hochsalinaren Fluiden mit höheren Ca/Na-Verhältnissen erklären, die sich aus der Untersuchung von Fluideinschlüssen ableiten lässt. Ein Zusammenhang zwischen den untersuchten Fluideinschlüssen in Quarzadern und Nebengesteinen und der primären Au-Cu-Mineralisation kann ausgeschlossen werden. Für die Exploration auf Lagerstätten des IOCG-Typs bieten sich P, LSEE, U, Th, Cu, Co, Au, Ag, Pb und Se als Pfadfinder-Elemente an. Vorkommen dieses Typs lassen sich mit Methoden der Magnetik und Radiometrie auffinden. Für die Aufsuchung von Au-Cu-Quarzmineralisationen legen Erzmineralogie und Elementkorrelationen Ag, Te, Se, Pb und Bi als Pfadfinder neben As als klassischem Pfadfinder für Gold nahe.
Mit Hilfe eines eindimensionalen Strömungsmodells für die ungesättigte Zone wird die Grundwasserneubildung in einem Poren-Kluftgrundwasserleiter berechnet. Als Untersuchungsgebiet wurde das Einzugsgebiet der Hafenlohr im Buntsandsteinspessart gewählt. Grundlage der Berechnungen sind Kenntnisse über die Wassergehalts-Saugspannungsbeziehungen und über die hydraulischen Durchlässigkeiten von Kluft- und Porenraum. Der Modellraum wird als Zwei-Porositäts-Medium interpretiert wobei Poren- und Kluftraum über Austauschterme miteinander verknüpft sind. Mit dem gewählten Modell ist es möglich neben der Grundwasserneubildung auch Oberflächenabfluss, Evapotranspiration und an Schichtgrenzen auftretende Zwischenabflüsse zu berechnen. Der Übergang vom Bodenhorizont zum Festgestein hat den größten steuernden Einfluss auf die Grundwasserneubildung. Die Neubildungshöhe beträgt durchschnittlich etwa 66 bzw. 100 mm, je nachdem, ob die Zwischenabflüsse im Festgestein berücksichtigt werden. Die Schwankung der Grundwasserneubildung ist auch in Jahren mit extremen Niederschlagshöhen gering. Eine Simulation des Abflussverhaltens der Hafenlohr mit den berechneten Daten stimmt gut mit gemessenen Werten überein.