550 Geowissenschaften
Refine
Has Fulltext
- yes (86)
Is part of the Bibliography
- yes (86)
Year of publication
Document Type
- Doctoral Thesis (55)
- Journal article (18)
- Master Thesis (5)
- Conference Proceeding (4)
- Book article / Book chapter (2)
- Book (1)
- Report (1)
Language
- German (86) (remove)
Keywords
- Geographie (9)
- Fernerkundung (8)
- GIS (5)
- Modellierung (5)
- remote sensing (5)
- Anthropogene Klimaänderung (4)
- Geologie (4)
- Karst (4)
- Niger (4)
- Allgemeine atmosphärische Zirkulation (3)
Institute
Sonstige beteiligte Institutionen
In den letzten Jahrzehnten ist eine verstärkte Veränderung der Landoberfläche beobachtet worden. Diese Prozesse sind direkten und indirekten anthropogenen Einflüssen zuzuschreiben, wie Deforestation oder Klimawandel. Mit dieser Entwicklung geht der Verlust und die Fragmentation von naturnahen Flächen einher. Für das Fortbestehen von Populationen verschiedenster Organismen in einer derartig geformten Landschaft ist entscheidend, inwieweit die Migration zwischen bestehenden Fragmenten gewährleistet ist. Diese wird von der Eignung der umgebenden Landschaft beeinflusst. Im Kontext einer klimatischen Veränderung und verstärkter anthropogener Landnutzung ist die Analyse der räumlichen Anordnung von Habitatfragmenten und der Qualität der umgebenden Landschaft besonders für die globale Aufrechterhaltung der Biodiversität wichtig. Großräumige Muster der Landschaftsveränderung können mit Hilfe von Satellitendaten analysiert werden, da es nur diese ermöglichen die Landbedeckung flächendeckend, reproduzierbar und auf einer adäquaten räumlichen Auflösung zu kartieren. Besonders zeitlich hochaufgelöste Daten liefern wertvolle Informationen bezüglich der Dynamik der Landbedeckung. Diese Arbeit beschäftigt sich mit der Analyse der Fragmentation in Westafrika und der potentiellen Bedeutung von singulären Fragmenten und deren potentiellen Auswirkungen auf die Biodiversität. Dafür wurden zeitlich hoch- und räumlich mittelaufgelöste Daten des Aufnahmesystems MODIS verwendet, mit denen für das Untersuchungsgebiet Westafrika die Landbedeckung klassifziert wurde. Für die darauf folgenden Analysen der räumlichen Konfiguration der Fragmente wurde der Fokus auf Regenwaldgebiete gelegt. Die Analyse von räumlichen Mustern der Regenwaldfragmente liefert weiterführende qualitative Informationen der individuellen Teilbereiche. Die räumliche Anordnung wurde sowohl mit etablierten Maßen als auch mittels in dieser Arbeit erstellter robuster und übertragbarer Indizes quantifiziert. Es konnte gezeigt werden, dass die Verwendung von aussagekräftigen Indizes, besonders, wenn sie alle benachbarten Fragmente und die Qualität der umgebenden Matrix berücksichtigen, die räumliche Differenzierung von Fragmenten verbessert. Jedoch ist die Anwendung dieser Maße abhängig von den Ansprüchen einer Art. Daher muss die artspezifische Perzeptionen der Landschaft auf der Basis der Indizes implementiert werden, da die Übertragung der Ergebnisse einzelner Indizes auf andere räumliche Auflösungen und andere Regionen nur begrenzt möglich war. Des Weiteren wurden potentielle Einflussfaktoren auf die räumlichen Muster mittels Neutraler Landschaftsmodelle untersucht. Hierbei ergaben sich je nach Region und Index unterschiedliche Ergebnisse, allerdings konnte der Einfluss anthropogen induzierter Veränderungen auf die Landbedeckung postuliert werden. Die große Bedeutung der räumlichen Attribution von Landbedeckungsklassen konnte in dieser Arbeit aufgezeigt werden. Der alleinige Fokus auf die Kartierung von z. B. Waldfragmenten ohne deren räumliche Anordnung zu berücksichtigen, kann zu falschen Schlüssen bezüglich deren ökologischen, hydrologischen und klimatologischen Bedeutung führen.
Im Rahmen der vorliegenden Arbeit wurden die Druck-Temperatur-Bildungsbedingungen metapelitischer Gesteine aus verschiedenen lithostratigraphischen Formationen des Spessart-Kristallins untersucht. Geologisch stellt das Spessart-Kristallin einen Teil der Mitteldeutschen Kristallinzone dar, die sich innerhalb des Orogens der mitteleuropäischen Varisziden am nördlichen Rand des Saxothuringikums erstreckt. Das wesentliche Ziel der Untersuchungen bestand darin, mittels phasenpetrologischer und geothermobarometrischer Methoden die Metamorphose-Entwicklung des Spessart-Kristallins zu rekonstruieren und in Beziehung zur geodynamischen Geschichte der Varisziden zu setzen. Der Schwerpunkt der Arbeiten lag auf den Staurolith-Glimmerschiefern der Mömbris-Formation. Darüber hinaus wurden Gesteine der Geiselbach-, Alzenau- und Elterhof-Formation einbezogen. Als Grundlage für die Phasenpetrologie wurden petrographische, mineralchemische und geochemische Untersuchungen durchgeführt. Prograde Metamophose-Zonen können im Spessart-Kristallin nicht kartiert werden. Die Protolithe der untersuchten Metasedimente stellten vermutlich häufig saure bis intermediäre Magmatite dar, für die Geiselbach- und Elterhof-Formation wohl auch quarzreiche Sedimente. Die geo¬chemischen Daten lassen für die Mömbris-, Alzenau- und Elterhof-Formation Grauwacken bis Pelite als sedimentäre Edukte der Metamorphite annehmen, die Gesteine der Geiselbach-Formation könnten auf Arkosen zurückgehen. Eine Ablagerung der sedimentären Edukte im Bereich eines Kontinen¬talen Inselbogens bis Aktiven Kontinentalrandes ist für die Mömbris- und Alzenau-Formation wahrscheinlich, für die Geiselbach- und Elterhof-Formation liegt kein eindeutiges Bild vor. Zur Abschätzung der Metamorphosebedingungen wurden verschiedene Phasendiagramme verwendet, die auf den metapelitischen Modellsystemen KMnFMASH (K2O-MnO-FeO-MgO-Al2O3-SiO2-H2O) und KFMASH (K2O-FeO-MgO-Al2O3-SiO2-H2O) basieren, insbesondere P-T-Pseudoschnitte und T-X-Schnitte. Weiterhin wurden konventionelle Geothermobarometer berechnet und Abschätzungen mittels intern-konsistenter thermodynamischer Datensätze vorgenommen. Die theoretischen Grundlagen dieses phasenpetrologischen Ansatzes werden kurz erläutert. Für den Metamorphose-Höhepunkt der Gesteine ergaben sich Temperaturen im Bereich von ca. 600 - 615 °C und Drucke um 6.5 - 8 kbar. Diese Daten weisen eine recht gute Übereinstimmung zu den bisher in der Literatur bekannten Werten für das Spessart-Kristallin auf. Im Anschluß an die amphibolitfazielle Metamorphose wurden die Gesteine mehr oder minder stark retrograd überprägt. Anzeichen für eine polymetamorphe Entwicklung dieses Teils der Mitteldeutschen Kristallinzone liegen nicht vor. Die rekonstruierten P-T-Pfade bzw. P-T-Pfad-Segmente dokumentieren eine recht einheitliche metamorphe Entwicklung im Uhrzeigersinn („clockwise“) und weisen auf eine Barrow-type Metamorphose hin. Die P-T-Pfade der meisten Proben zeigen einen charakteristischen Verlauf mit einer Phase nahezu isothermaler Dekompression. Demgegenüber konnte für einige Disthen-führende Proben ein etwas flacherer P-T-Pfad mit einer offenbar geringfügig stärker Temperatur-betonten Entwicklung differenziert werden. Das Metamorphose-Maximum ist für diese Gesteine durch Temperaturen von ca. 620 - 630 °C und Drucke von etwa 6 - 8 kbar gekennzeichnet. Damit wird eine leichte Zunahme des Metamorphosegrades nach Süden innerhalb der Mömbris-Formation, die verschiedentlich vermutet worden war, nachgewiesen. Die neu erarbeiteten Pfade sind aufgrund des methodischen Ansatzes, der die Zusammensetzung und Mineralparagenese der jeweiligen Probe berücksichtigt, im Vergleich zu früheren Arbeiten deutlich besser abgesichert. Sie dokumentieren erstmals in dieser Form die Druck-Temperatur-Geschichte des Spessart-Kristallins. Die P-T-Pfade lassen auf eine relativ schnelle Versenkung der Gesteine bei einem recht niedrigen geothermischen Gradienten und eine anschließende rasche Heraushebung aus einer Tiefe von etwa 25 - 28 km auf etwa 15 - 18 km bei einer eher geringen Temperaturabnahme schließen. Die damit für das Spessart-Kristallin dokumentierte Entwicklung fügt sich gut in das aktuelle geotektonische Modell einer Kollision eines passiven Kontinentalrandes mit einem kontinentalen Bogen ein und steht in Analogie zur derzeit gängigen Vorstellung, die Mitteldeutsche Kristallinschwelle repräsentiere einen variszischen aktiven Plattenrand.
Warum sind manche Unternehmen und warum manche Regionen innovativer als andere? Zahlreichen wissenschaftlichen Beiträgen zufolge ist die Antwort auf diese Frage vom vorhandenen Humankapital und dem vorhandenen und verfügbaren Wissen abhängig. Innovationen werden von Menschen vorangetrieben. Warum scheinen die Mitarbeiter mancher Unternehmen innovativer zu sein, als die Mitarbeiter anderer Unternehmen? Diese Frage gewinnt angesichts zunehmender Dynamik, einem intensiveren Wettbewerb und einem rascheren Wertewandel im heutigen Unternehmensumfeld an praktischer und theoretischer Relevanz. Tatsächlich erhöht der immer schneller werdende technologische, gesellschaftliche und wirtschaftliche Wandel die bei Innovationsvorhaben ohnehin schon stetig steigende Aufgabenkomplexität und Projektunsicherheit. Allerdings birgt dieser Wandel nicht nur Unsicherheit, sondern schafft in zunehmendem Maße unternehmerische Chancen, die sowohl von Unternehmern und Gründern als auch von Mitarbeitern genutzt werden können. Viele innovationstheoretische Untersuchungen konzentrieren sich auf eine faktorielle Darstellung von erfolgswirksamen Rahmenbedingungen, die es herzustellen gilt, um ein ‚gesundes’ Milieu zu schaffen, in dem Menschen Unternehmen gründen und Innovationen vorantreiben. Verhaltensorientierte Studien im Kontext der Innovations- und Gründungsforschung zeigen, dass gerade Faktoren, die im Zusammenhang mit der Person stehen, einen erheblichen Einfluss auf den Innovations- und Gründungserfolg haben. Um in diesem Kontext eine Ursache für Regionalentwicklung zu finden, verbleibt die Suche nicht bei einer rein auf Faktorausstattung reduzierten Erklärung. Dagegen rückt die Studie den Mikrofaktor Humankapital im Zusammenhang zur Innovationsentwicklung in den Mittelpunkt. Sie leistet damit einen Beitrag zum Entstehungsprozess von Innovationen, indem empirisch untersucht wird, welche unternehmerischen Kompetenzen in einem Innovationsprozess benötigt werden und welche daraus resultierenden Handlungsstrategien den Erfolg der Innovationsteams bedingen.
Beobachtung des Hydroxyl (OH*)-Airglow: Untersuchung von Klimasignalen und atmosphärischen Wellen
(2009)
Die obere Mesosphäre ist die Atmosphärenschicht, die von etwa 80-100 km Höhe reicht. Aufgrund der geringen Luftdichte – sie ist fünf bis sechs Größenordnungen geringer als an der Erdoberfläche – und der effektiven Abstrahlung von Wärme in den Weltraum („Strahlungskühlung“) wird generell angenommen, dass Klimasignale in diesem Höhenbereich sehr viel ausgeprägter sein sollten als in den unteren Atmosphärenschichten. Es wird daher erwartet, dass Beobachtungen in dieser Region der Atmosphäre eine frühzeitige Erkennung von Klimatrends mit guter statistischer Signifikanz erlauben sollten. Daten, die von diesen Messungen bereitgestellt werden, sind wichtig für die Weiterentwicklung und Verbesserung numerischer Klimamodelle, die die mittlere Atmosphäre abdecken. Dieser Höhenbereich der Atmosphäre ist messtechnisch jedoch nur schwer zugänglich. Die Dichte der Messnetze ist keinesfalls vergleichbar mit denen für die Beobachtung etwa der Stratosphäre oder der Troposphäre; Routinemessungen gibt es kaum. Direkte Messungen werden mit raketengestützten Instrumenten, indirekte Messungen über satellitengestützte und bodengebundene Techniken, wie z.B. Lidar, Radar und Spektroskopie, vorgenommen. Die vorliegende Arbeit basiert auf Daten des „GRound-based Infrared P-branch Spectrometer (GRIPS)“, das Infrarot-Emissionen aus der sogenannten OH*-Airglow-Schicht misst, aus denen die Temperatur in ~87 km Höhe abgeleitet werden kann. Neben anthropogenen Einflüssen auf das Klima gibt es natürliche Effekte, die Temperaturschwankungen in der oberen Mesosphäre verursachen können. Für die Interpretation experimenteller Daten ist das Verständnis dieser natürlichen Quellen der Variabilität wichtig. Daher wird mithilfe einer 25-jährigen Zeitreihe der über Wuppertal (51,3°N, 7,2°O) gemessenen OH*-Temperaturen die potentielle Wechselwirkung der Dynamik der oberen Mesosphäre mit der Sonnenaktivität untersucht. Eine Korrelation der Aktivität planetarer Wellen mit dem solaren Magnetfeld (22-jähriger solarer Hale-Zyklus) konnte festgestellt werden. Als möglicher physikalischer Mechanismus wird vorgeschlagen, dass der Ringstrom im Erdinnern und damit das interne Magnetfeld der Erde durch das solare Magnetfeld moduliert wird, was wiederum zu Modulationen des totalen Magnetfeldes im Erdinnern über die Kopplung elektromagnetischer Drehmomente zwischen dem Erdkern und dem Erdmantel führt. Als Folge sollte die Rotationsperiode der Erde – und damit die Aktivität planetarer Wellen – durch die solare Magnetfeldstärke moduliert sein. Der Aktivität planetarer Wellen ist zudem eine quasi-zweijährige Schwingung überlagert. Zumeist ist die Wellenaktivität verstärkt, wenn sich die Windrichtung des mittleren zonalen Windes der äquatorialen Quasi-Biennalen Oszillation (QBO) von einem Westwind zu einem Ostwind umkehrt. Darüber hinaus konnte festgestellt werden, dass die unregelmäßige Verteilung der Sonnenflecken auf der Sonnenscheibe aufgrund der Rotation der Sonne zu Fluktuationen der OH*-Temperatur führt. Häufig beobachtet werden ausgeprägte spektrale Komponenten in den OH*-Temperaturfluktuationen im Periodenbereich von 27 bis 31 Tagen. Diese Signaturen werden vorläufig auf die differentielle Rotation der Sonne zurückgeführt. Dynamische Prozesse wie z.B. atmosphärische Schwerewellen sind von großer Bedeutung für den Energiehaushalt der oberen Mesosphäre / unteren Thermosphäre (MLT-Region). Daher müssen sie in Klimamodellen berücksichtigt werden, was derzeit jedoch nur durch einfache Parametrisierungen bewerkstelligt werden kann. Um eine möglichst realistische Modellierung der großräumigen Zirkulationssysteme zu ermöglichen, ist die Kenntnis der Strukturfunktionen der Schwerewellen sowie ihre Quell- und Senkenstärken in Raum und Zeit erforderlich. Messungen von Schwerewellen sind daher unabdingbar. In der vorliegenden Arbeit werden im Rahmen von Fallstudien Temperatursignaturen untersucht, wie sie von Schwerewellen erzeugt werden. Verwendet werden hierfür zeitlich hoch aufgelöste OH*-Temperaturzeitreihen aufgenommen am Hohenpeißenberg (47,8°N, 11,0°O) und an der Zugspitze (47,5°N, 11,0°O). Durch den Alpenkamm induzierte Schwerewellen können identifiziert und Schwerewellenparameter wie beispielsweise die Ausbreitungsrichtung oder die Phasengeschwindigkeit quantifiziert werden. Messungen, aufgenommen von Bord des deutschen Forschungsschiffes „Polarstern“ im Golf von Biskaya (um 48°N, 6°O), werden mit satellitenbasierten Beobachtungen kombiniert. Es wird gezeigt, dass Schwerewellen, die von einem atlantischen Zyklon erzeugt werden, die Temperatur in der Mesopausenregion beeinflussen können. Das GRIPS-System ist ferner prinzipiell zur schnellen Erkennung von Naturgefahren wie z.B. Tsunamis, Erdbeben oder Vulkanaktivität geeignet, da solche Ereignisse Infraschall erzeugen, der wiederum erkennbare Temperaturfluktuationen in der OH*-Airglow-Schicht verursacht. Am Beispiel des Sumatra-Tsunamis von 2004 wird diese Möglichkeit quantitativ diskutiert.
Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%.
Für eine dauerhaft gesicherte und umweltgerechte Energieerzeugung kommt den erneuerbaren Energien in Zukunft eine immer größere Bedeutung zu. Dies stellt eine große Herausforderung für die Entwicklung zukünftiger Energiesysteme dar, da erneuerbare Energieträger zeitlich und räumlich zumeist hoch variabel zur Verfügung stehen. Eine effiziente Integration solar erzeugter Energie in das bestehende Energieversorgungsnetz ist daher nur möglich, wenn verlässliche Nahe-Echtzeit-Vorhersagen der am Erdboden verfügbaren Einstrahlung und ein- bis dreitägige Vorhersagen von Energieproduktion und -nachfrage zur Verfügung stehen. Die vorliegende Arbeit beschäftigt sich mit der Vorhersage der solaren Strahlung für die nächsten Tage und Stunden im Hinblick auf Anwendungen in der Energiewirtschaft. Der dominante Atmosphärenparameter für die Abschwächung der solaren Einstrahlung ist die Bewölkung. Das größte wirtschaftliche Potential der Solarenergie liegt jedoch in Zeiträumen und Regionen, in denen wenig Bewölkung auftritt. Im wolkenlosen Fall beeinflussen vor allem Aerosole, feste und flüssige Partikel in der Atmosphäre, die direkte und diffuse Strahlung am Erdboden. Aerosole sind durch eine hohe zeitliche und räumliche Variabilität gekennzeichnet, die die Bestimmung ihrer raumzeitlichen Verteilung und damit ihres Einflusses auf die Strahlung erschwert und einen hohen Aufwand zu ihrer Prognose erforderlich macht. Am Beispiel eines fünfmonatigen europäischen Datensatzes (Juli-November 2003) werden Prognosen der aerosoloptischen Tiefe bei 550 nm (AOT550) untersucht, die aus Aerosolvorhersagen eines Chemie-Transport-Modells stammen. Es zeigt sich, dass im Vergleich mit Bodenmessungen die Aerosolprognosen mit einer mittleren Unterschätzung von -0,11 und einem RMSE von 0,20 die geforderte Genauigkeit nicht ganz erreichen. Dabei stellen insbesondere die unregelmäßig auftretenden Saharastaubausbrüche über dem zentralen Mittelmeer eine im Modell bisher nicht erfassbare Quelle großer Ungenauigkeiten in der AOT- und damit auch in der Strahlungsvorhersage dar. Entsprechend der hohen regionalen Aerosol-Variabilität finden sich zudem signifikante Unterschiede zwischen den Regionen, zum Beispiel eine deutliche Unterschätzung des Aerosolaufkommens in der stark industriell belasteten Po-Ebene Norditaliens sowie gute Entsprechungen in abgelegenen Gegenden Nordeuropas. Basierend auf dieser Aerosol-Prognose und unter Einbeziehung weiterer Fernerkundungsdaten (Bodenalbedo, Ozon) und Parametern aus der numerischen Wetterprognose (Wasserdampf, Wolken) wird ein Prototyp für ein Vorhersagesystem der Solarstrahlung konzipiert und vorgestellt: das AFSOL-System (Aerosol-based Forecasts of Solar Irradiance for Energy Applications). An Hand der fünfmonatigen Testepisode wird das AFSOL-System mit Vorhersagen des Europäischen Zentrums für Mittelfrist-Wettervorhersage (ECMWF), mit satellitenbasierten Beobachtungen der Solarstrahlung (Meteosat-7) und mit Bodenmessungen der Solarstrahlung verglichen. Für den wolkenlosen Fall erzielt das AFSOL-Modellsystem eine deutliche Verbesserung der Direktstrahlungsprognosen gegenüber den ECMWF-Vorhersagen, mit einer Reduktion des relativen Bias von -26% auf +11% und des relativen RMSE von 31% auf 19%. Dies kann auf die verbesserte Beschreibung des atmosphärischen Aerosols zurückgeführt werden, die sich im Vergleich zu den am ECMWF genutzten AOT-Klimatologien ergibt, auch wenn insbesondere bei der Behandlung von Wüstenstaubepisoden weiterhin Probleme auftreten. Auch die Globalstrahlungsprognosen erreichen im wolkenlosen Fall eine höhere Genauigkeit als die operationell verfügbaren ECMWF-Vorhersagen, was sich in einer Verringerung des relativen Bias von -10% zu +5% sowie des relativen RMSE von 12% zu 7% zeigt. Im bewölkten Fall jedoch können die Vorhersagen des AFSOL-Systems erhebliche Ungenauigkeiten aufweisen, die sich auf Grund von Problemen bei der Wolkenprognose des zu Grunde liegenden numerischen Wettervorhersagemodells ergeben. Abschließend wird in einer Fallstudie zur Verwendung der Vorhersagen für die optimale Betriebsführung eines solarthermischen Kraftwerks in Spanien beispielhaft gezeigt, dass die Nutzung der AFSOL-Prognose im wolkenlosen Fall eine deutliche Gewinnsteigerung bei der Einspeisung ins öffentliche Stromnetz durch den Handel an der spanischen Strombörse ermöglicht.
Vulnerabilitätsabschätzung der erdbebengefährdeten Megacity Istanbul mit Methoden der Fernerkundung
(2008)
Urbane Räume zählen zu den dynamischsten Regionen dieser Erde. Besonders Megacities zeigen bereits heute Trends und Dimensionen der Urbanisierung, deren regionale und globale Folgen noch kaum vorhersehbar, und erst ansatzweise erforscht sind. Die enorme räumliche Konzentration von Menschen, Werten und Infrastruktur auf engem Raum ist für diese urbanen Räume die Grundlage einer hohen Verwundbarkeit (Vulnerabilität). Gerade im Kontext von Naturgefahren potenzieren sich die Risiken, die durch den schnellen strukturellen, sozioökonomischen und ökologischen Wandel entstehen. Das übergeordnete Ziel dieser Dissertation ist daher die Analyse von Potentialen der Fernerkundung zur Abschätzung von Risiko und Vulnerabilität am Beispiel der erdbebengefährdeten Megacity Istanbul. Um die Zielstellung systematisch zu verfolgen, wird ein konzeptioneller, thematischer Leitfaden entwickelt. Dieser besteht aus einer Systematisierung der abstrakten Überbegriffe ‚Risiko’, ‚Vulnerabilität’ und ‚Gefährdung’ in einem Indikatorensystem. Konkrete, messbare Indikatoren für das System ‚urbaner Raum’ erlauben eine quantitative Abschätzung von Einzelaspekten, addieren sich aber auch zu einer ganzheitlichen Perspektive des Risikos. Basierend auf dieser holistischen Idee, erlaubt das Indikatorensystem Potentiale, aber auch Limitierungen der Fernerkundungsdaten und Bildverarbeitungsmethoden für die Abschätzung von Risiko und Vulnerabilität zu identifizieren. Anhand des Leitfadens werden zielgerichtet Methoden zur automatisierten Extraktion räumlicher Informationen aus Fernerkundungsdaten entwickelt. Ein objektorientierter, modularer Klassifikationsansatz ermöglicht eine Landbedeckungsklassifikation höchst aufgelöster Daten im urbanen Raum. Dieses modulare Rahmenwerk zielt auf eine einfache und schnelle Übertragbarkeit auf andere höchst auflösende Sensoren bzw. andere urbane Strukturen. Zur Anpassung der Methoden werden neben IKONOS Daten der Megacity Istanbul und der erdbeben- und tsunamigefährdeten Küstenstadt Padang in Indonesien, Quickbird Daten für die zukünftige Megacity Hyderabad in Indien getestet. Die Resultate zeigen die detaillierte und hochgenaue Erfassung kleinräumiger, heterogener urbaner Objekte mit Genauigkeiten von über 80 %. Auch mittel aufgelöste Landsat Daten werden mit einem objektorientierten modularen Rahmenwerk mit hohen Genauigkeiten klassifiziert, um komplementäre temporale und gesamtstädtische Analysen hinzuzufügen. Damit wird eine aktuelle, flächendeckende und multiskalige Informationsbasis generiert, die als Ausgangsprodukt zur Analyse urbaner Vulnerabilität dient. Basierend auf diesen Informationsebenen werden dem konzeptionellen Leitfaden folgend Indikatoren zur Abschätzung von Vulnerabilität und Risiko extrahiert. Der Fokus ist dabei die Entwicklung von Methoden zur automatisierten, interpreterunabhängigen Ableitung vulnerabilitäts- und gefährdungsrelevanter Indikatoren. Die physische Analyse des kleinräumigen urbanen Raums konzentriert sich dabei auf die Typisierung des Gebäudebestandes mit Parametern wie Dichte, Höhe, Alter, Größe, Form sowie Dachtyp. Indirekt wird zudem mittels dieser Parameter die Bevölkerungsdichteverteilung abgeleitet. Weitere Standortfaktoren ergeben sich aus Lageparametern wie Distanzen zu Hauptverkehrsachsen, Freiflächenanalysen oder der Geländeoberfläche. Schließlich führt die Vulnerabilitätsabschätzung den modellhaften, thematischen Leitfaden mit den abgeleiteten Indikatoren zusammen. Dazu erfolgt eine Normierung der unterschiedlichen abgeleiteten Indikatoren auf einen einheitlichen Vulnerabilitätsindex. Dieser zielt auf eine räumliche und zeitliche Vergleichbarkeit und die Möglichkeit, die vielfältigen Informationsebenen zu kombinieren. Damit wird das Zusammenspiel verschiedenster Indikatoren simuliert und erlaubt daraus Identifizierung und Lokalisierung von Brennpunkten im Desasterfall. Über das fernerkundliche Potential hinaus, werden die Resultate in einer interdisziplinären Methode zu einem synergetischen Mehrwert erhoben. Statt einer quantitativen Abschätzung der physischen Gebäudeparameter, ermöglicht eine Methode des Bauingenieurwesens in Kombination mit der fernerkundlichen Gebäudetypisierung eine Abschätzung der wahrscheinlichen Schadensanfälligkeit von Gebäuden im Falle eines Erdbebens. Exemplarisch wird das Potential der Resultate für Entscheidungsträger anhand eines Erdbebensszenarios aufgezeigt. Risiko und Vulnerabilität lassen sich dadurch räumlich sowohl nach betroffenen Häusern und betroffenen Menschen als auch nach räumlichen Standortfaktoren wie beispielsweise Zugänglichkeit quantifizieren. Dies ermöglicht gezielt präventiv zu agieren oder während und nach einem Desaster gezieltes Krisenmanagement zu betreiben. Im Hinblick auf die zentrale Fragestellung dieser Dissertation lässt sich resümieren, dass die Aktualität sowie die geometrische und thematische Qualität der Resultate aus Fernerkundungsdaten, den Anforderungen des komplexen, kleinräumigen und dynamischen urbanen Raums gerecht werden. Die Resultate führen zu der Erkenntnis, dass das Potential der Fernerkundung zur Abschätzung von Vulnerabilität und Risiko vor allem in der direkten Ableitung physischer Indikatoren sowie der indirekten Ableitung demographischer Parameter liegt.
Weltweit sind Trockengebiete in ständiger Veränderung, verursacht durch natürliche klimatische Schwankungen und oftmals durch Prozesse der Landdegradation. Auch weisen die meisten semi-ariden Naturräume eine große räumliche Heterogenität auf, hervorgerufen durch ein kleinräumiges Mosaik aus Gräsern, kleineren Sträuchern und Bereichen offenliegenden Bodens. Die Dichte der Vegetation wird primär vom pflanzenverfügbaren Wasser bestimmt, aber auch der Entwicklungs- und Degradationszustand der Böden sowie anthropogen bedingte Faktoren spielen hierbei eine Rolle. Zur Charakterisierung und Kartierung der Vegetation sowie zur Bewertung des Bodenerosionsrisikos und des Degradationszustands hat sich die Erhebung der Bedeckungsgrade von vitaler, photosynthetisch aktiver Vegetation (PV), von abgestorbener oder zeitweise vertrockneter und somit nicht photosynthetisch aktiver Vegetation (NPV) sowie von offenliegendem Boden als zweckmäßig herausgestellt. Die Nutzung der Fernerkundung für diese Aufgabe erfolgt zumeist nur für kleinmaßstäbige Kartierungen und – im Falle von Multispektralsensoren – unter Vernachlässigung nicht-photosynthetisch aktiver Vegetation. Die räumliche Variabilität der Vegetation-Boden-Mosaike liegt oftmals in der Größenordnung von wenigen Metern und somit unterhalb des räumlichen Auflösungsvermögens von Fernerkundungssystemen. Um dennoch die verschiedenen Anteile innerhalb eines Pixels identifizieren und quantifizieren zu können, sind Methoden der Subpixel-Klassifikation notwendig. In dieser Arbeit wird eine Methodik zur verbesserten und automatisierbaren Ableitung von Bodenbedeckungsgraden in semi-ariden Naturräumen vorgestellt. Hierzu wurde ein Verfahren zur linearen spektralen Entmischung in Form einer Multiple Endmember Spectral Mixture Analysis (MESMA) entwickelt und umgesetzt. Durch diese Methodik kann explizit die spektrale Variabilität von Vegetation und Boden in das Mischungsmodellmiteinbezogen werden, und quantitative Anteile für die funktionalen Klassen PV, NPV und Boden innerhalb eines Pixels erfasst werden. Durch die räumliche Kartierung der verwendeten EM wird weiterhin eine thematische Klassifikation erreicht. Die hierfür benötigten Informationen können – wie im Falle der Spektren reiner Materialien (EM-Spektren) – aus den Bilddaten selbst abgeleitet werden, oder können – wie ein Geländemodell und die Information über den Scanwinkel – im Zuge der Vorprozessierung aus weiteren Datenquellen erzeugt werden. Hinsichtlich der automatisierten EM-Ableitung wird eine zweistufige Methodik eingesetzt, welche auf einer angepassten Version des Sequential Maximum Angle Convex Cone (SMACC)-Verfahrens sowie der Analyse einer ersten Entmischungsiteration basiert. Die Klassifikation der gefundenen potentiellen EM erfolgt durch ein merkmalsbasiertes Verfahren. Weiterhin weisen nicht-photosynthetisch aktive Vegetation und Boden eine hohe spektrale Ähnlichkeit auf. Zur sicheren Trennung kann die Identifikation schmaler Absorptionsbanden dienen. Zu diesen zählen beispielsweise die Absorptionsbanden von Holozellulose und – je nach Bodentyp – Absorptionsbanden von Bodenmineralen. Auch die spektrale Variabilität der Klassen PV und NPV erfordert zur sicheren Unterscheidung die Verwendung biophysikalisch erklärbarer Merkmale im Spektrum. Hierzu zählen unter anderem die Stärke der Chlorophyll-Absorption, die Form und Lage der ’RedEdge’ und das Auftreten von Holozellulosebanden. Da diese spektrale Information bei herkömmlichen Entmischungsansätzen nicht berücksichtigt wird, erfolgt überwiegend eine Optimierung der Gesamtalbedo, was zu einer schlechten Trennung der Klassen führen kann. Aus diesem Grund wird in der vorliegenden Arbeit der MESMA-Ansatz dahingehend erweitert, dass spektrale Information in Form von identifizierten und parametrisierten Absorptionsbanden in den Entmischungsprozess mit einfließt und hierdurch das Potential hyperspektraler Datensätze besser genutzt werden kann. Auch wird in einer zusätzlichen Entmischungsiteration die räumliche Nachbarschaft betrachtet, um insbesondere die Verwendung des sinnvollsten Boden-EMs zu gewährleisten. Ein zusätzliches Problemfeld stellt die numerische Lösung des überbestimmten und oftmals schlecht konditionierten linearen Mischungsmodells dar. Hierzu kann durch die Verwendung des BVLS-Algorithmus und des Ausschlusses kritischer EM-Kombinationen eine numerisch stabile Lösung gefunden werden. Um die oftmals immense Rechenzeit von MESMA-Verfahren zu verkürzen, besteht die Möglichkeit einer iterativen EM-Auswahl und somit die Vermeidung einer Lösung des Mischungssystems durch Berechnung aller EM-Kombinationen (’Brute-Force’-Ansatz). Ein weiterer wichtiger Punkt ist die explizite pixelweise Angabe zur Zuverlässigkeit der Entmischungsergebnisse. Dies erfolgt auf Basis des Mischungsmodells selbst, durch den Vergleich zu empirischen Regressionsmodellen, durch die Berücksichtigung des lokalen Einfallswinkels sowie durch die Integration von Qualitätsangaben der Ausgangsdaten. Um das Verfahren systematisch und unter kontrollierten Bedingungen zu verifizieren und um den Einfluss verschiedener externer Parameter sowie die typischen Genauigkeiten auf einer breiten Datenbasis zu ermitteln, wird eine Simulationskette zur Erzeugung synthetischer Mischungen erstellt. In diese Simulationen fließen Feldspektren von Böden und Pflanzen verschiedener semi-arider Gebiete mit ein, um möglichst viele Fälle abdecken zu können. Die eigentliche Validierung erfolgt auf HyMap-Datensätzen des Naturparks ’Cabo de Gata’ in der andalusischen Provinz Almería sowie auf Messungen, die begleitend im Feld durchgeführt wurden. Hiermit konnte die Methodik auf ihre Genauigkeit unter den konkreten Anforderungen des Anwendungsbeispiels überprüft werden. Die erzielbare Genauigkeit dieser automatisierten Methodik liegt mit einem mittleren Fehler um rund 10% Abundanz absolut im selben Wertebereich oder nur geringfügig höher als die Ergebnisse publizierter manueller MESMA-Ansätze. Weiterhin konnten die typischen Genauigkeiten der Verifikation im Zuge der Validierung bestätigt werden. Den limitierenden Faktor des Ansatzes stellen in der Praxis fehlerhafte oder unvollständige EM-Modelle dar. Mit der vorgestellten Methodik ist somit die Möglichkeit gegeben, die Bedeckungsgrade quantitativ und automatisiert im Subpixelbereich zu erfassen.
Informationen über die Landbedeckung und die mit der anthropogenen Komponente verbundenen Landnutzung sind elementare Bestandteile für viele Bereiche der Politik, Wirtschaft und Wissenschaft. Darunter fallen beispielsweise die Strukurentwicklungsprogramme der EU, die Schadensregulierung im Versicherungswesen und die Modellierung von Stoffkreisläufen. CORINE Land Cover (CLC) wurde infolge eines erweiterten Bedarfs an einem europaweit harmonisierten Datensatz der Landoberfläche erstellt. Das CORINE Projekt weist für diese Arbeit eine hohe Relevanz durch die regelmäßigen Aktualisierungen von 10 Jahren, dem Einsatz der Daten in vielen europäischen und nationalen Institutionen und der guten Dokumentation der CORINE Nomenklatur auf. Die Erstellung der Daten basiert auf der computergestützten manuellen Interpretation, da automatische Verfahren durch die Komplexität der Aufgabenstellung und Thematik nicht in der Lage waren, den menschlichen Interpreten zu ersetzen. Diese Arbeit stellt eine Methodik vor, um CORINE Land Cover aus optischen Fernerkundungsdaten für eine kommende Aktualisierung abzuleiten. Hierzu dienen die Daten von CLC 1990 und der Fernerkundungsdatensatz Image 2000 als Grundlage, sowie die CLC 2000 Klassifikation als Referenz. Die entwickelte und in dem Softwarepaket gnosis implementierte Methodik wendet die objektorientierte Klassifikation in Kombination mit Theorien aus der menschlichen Bildwahrnehmung an. In diesen Theorien wird die Bildwahrnehmung als informationstechnischer Prozess gesehen, der den Klassifikationsprozess in die drei folgenden Subprozesse unterteilt: Bildsegmentierung, Merkmalsgenerierung und Klassenzuweisung. Die Bildsegmentierung generiert aus den untersten Bildprimitiven (Pixeln) bedeutungsvolle Bildsegmente. Diesen Bildsegmenten wird eine Anzahl von bildinvarianten Merkmalen aus den Fernerkundungsdaten für die Bestimmung der CLC Klasse zugewiesen. Dabei liegt die wichtigste Information in der Ableitung der Landbedeckung durch den überwachten Stützvektor-Klassifikator. Die Landoberfläche wird hierzu in zehn Basisklassen untergliedert, um weiteren Merkmalen einen semantischen Unterbau zu geben. Zur Bestimmung der anthropogenen Komponente von ausgewählten Landnutzungsklassen, wie beispielsweise Ackerland und Grünland, wird der phänologische Verlauf der Vegetation durch die Parameter temporale Variabilität und temporale Intensität beschrieben. Neben dem jahreszeitlichen Verlauf der Vegetation können Nachbarschaftsbeziehungen untersucht werden, um weitere anthropogene Klassen und heterogen aufgebaute Sammelklassen beschreiben zu können. Der Versiegelungsgrad als Beispiel für eine Reihe von unscharfen Merkmalen dient der weiteren Differenzierung der verschiedenen Siedlungsklassen aus CORINE LC. Mit Hilfe dieser Merkmale werden die CLC Klassen in abstrakter Form im Klassenkatalog (a-priori Wissensbasis) als Protoklassen beschrieben. Die eigentliche Objekterkennung basiert auf der Repräsentation der CORINE Objekte durch ihre einzelnen Bestandteile und vergleicht die gefundenen Strukturen mit der Wissensbasis. Semantisch homogen aufgebaute Klassen, wie Wälder und Siedlungen oder Protoklassen mit eindeutigen Merkmalen, beispielsweise zur Bestimmung von Grünland durch die Phänologie, können durch den bottom–up Ansatz identifiziert werden. Das übergeordnete CLC Objekt kann direkt aus den Bestandteilen zusammengebaut und einer Klasse zugewiesen werden. Semantisch heterogene Klassen, wie zum Beispiel bestimmte Sammelklassen (Komplexe Parzellenstrukur), können durch ihre Bestandteile validiert werden, indem die Bestandteile eines existierenden CLC Objektes mit der Wissensbasis auf Konsistenz untersucht werden (top–down Ansatz). Eine a-priori Datengrundlage ist für die Erkennung dieser Klassen essentiell. Die Untersuchung der drei Testgebiete (Frankfurt, Berlin, Oldenburg) zeigte, dass von der CORINE LC Nomenklatur 13 Klassen identifiziert und weiteren 14 Klassen validiert werden können. Zehn Klassen können durch diese Methodik aufgrund fehlender Merkmale oder Zusatzdaten nicht klassifiziert werden. Die Gesamtgenauigkeit der automatisierten Klassifikation für die Testgebiete beträgt zwischen 70% und 80% für die umgesetzten Klassen. Betrachtet man davon einzelne Klassen, wie Siedlungs-, Wald- oder Wasserklassen, wird aufgrund der verwendeten Merkmale eine Klassifikationsgenauigkeit von über 90% erreicht. Ein möglicher Einsatz der entwickelten Software gnosis liegt in der Unterstützung einer kommenden CORINE Aktualisierung durch die Prozessierung der identifizierbaren Klassen. Diese CLC Klassen müssen vom Interpreten nicht mehr überprüft werden. Für bestimmte CLC Klassen aus dem Top-down Ansatz wird der Interpret die letzte Entscheidung aus einer Auswahl von Klassen treffen müssen. Weiterhin können die berechneten Merkmale, wie die temporalen Eigenschaften und der Versiegelungsgrad dem Bearbeiter als Entscheidungsgrundlage zur Verfügung gestellt werden. Der Einsatz dieser neu entwickelten Methode führt zu einer Optimierung des bestehenden Aufnahmeverfahrens durch die Integration von semi-automatisierten Prozessen.
Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein Aussterben der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen oder nutzentheoretischen Annahmen beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. Für das Forschungsprojekt konnten für einen Untersuchungsraum in Nordschweden (Funktionalregion Umea) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden. Da auf der Angebotsseite die Umsätze der Geschäfte ebenso bekannt sind, können die Summen der von den Agenten dort allozierten Kaufkraftbeträge mit denselbigen verglichen werden. Dies erlaubt die Quantifizierung einer Schätzgüte für die Geschäftsumsätze mittels eines Gütemaßes. Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung.