Filtern
Volltext vorhanden
- ja (356)
Erscheinungsjahr
Dokumenttyp
Sprache
- Englisch (258)
- Deutsch (93)
- Französisch (2)
- Italienisch (1)
- Mehrsprachig (1)
- Russisch (1)
Schlagworte
- remote sensing (38)
- Einzelhandel (30)
- Fernerkundung (23)
- climate change (18)
- Deutschland (15)
- MODIS (14)
- Sentinel-2 (14)
- time series (14)
- Germany (12)
- Nachhaltigkeit (12)
Institut
- Institut für Geographie und Geologie (356) (entfernen)
Schriftenreihe
Sonstige beteiligte Institutionen
- The Italian Federation of Parks and Nature Reserves (3)
- ALPARC - The Alpine Network of Protected Areas (2)
- Eurac research (2)
- Salzburg Institute for Regional Planning and Housing (2)
- Urban Planning Institute of the Republic of Slovenia (2)
- ALPARC - Das Netzwerk Alpiner Schutzgebiete (1)
- Albert-Ludwigs-Universität Freiburg (1)
- Deutsches Klimaservice Zentrum (GERICS) (1)
- Deutsches Zentrum für Luft & Raumfahrt (DLR) (1)
- Deutsches Zentrum für Luft- und Raumfahrt (1)
- Deutsches Zentrum für Luft- und Raumfahrt (DLR) (1)
- Deutsches Zentrum für Luft- und Raumfahrt (DLR), Deutsches Fernerkundungsdatenzengrum (DFD) (1)
- Deutsches Zentrum für Luft- und Raumfahrt e.V. (1)
- Département de géographie, Université Abdou Moumouni Dioffo de Niamey, Niger (1)
- Eurac Research (1)
- Eurac Research – Istituto per lo sviluppo regionale (1)
- Federazione Italiana Parchi e Riserve Naturali (Federparchi) (1)
- Fraunhofer ISC (1)
- Geographisches Institut (Humboldt Universität zu Berlin) (1)
- Geographisches Institut (Universität zu Köln) (1)
- Geographisches Institut, Johannes Gutenberg-Universität Mainz (1)
- Goethe-Universität Frankfurt (1)
- Hochschule für angewandte Wissenschaften München, Fakultät für Tourismus (1)
- Institut für Humangeographie, Goethe-Universität Frankfurt am Main (1)
- Istituto di Salisburgo per la pianificazione regionale e le abitazioni (SIR) (1)
- Istituto di pianificazione urbana della Repubblica di Slovenia (UIRS) (1)
- La rete di aree protette alpine (ALPARC) (1)
- Lehrstuhl für Fernerkundung der Uni Würzburg, in Kooperation mit dem Deutschen Fernerkundungsdatenzentrum (DFD) des Deutschen Zentrums für Luft- und Raumfahrt (DLR) (1)
- Leuphana Universität Lüneburg (1)
- Salzburger Institut für Raumordnung und Wohnen (1)
- Sonderforschungsbereich Re-Figuration von Räumen (Technische Universität Berlin) (1)
- South African National Biodiversity Institute (SANBI) (1)
- Technische Universität Dresden (1)
- Technische Universität München (1)
- Universität Bayreuth (1)
- Universität Göttingen (1)
- Universität Leipzig (1)
- Urbanistični inštitut Republike Slovenije (1)
- iDiv (1)
ResearcherID
- I-5818-2014 (1)
EU-Projektnummer / Contract (GA) number
- 308377 (2)
- 227159 (1)
- 243964 (1)
- 776019 (1)
- 818182 (1)
- 834709 (1)
- LIFE12 BIO/AT/000143 (1)
- LIFE20 NAT/AT/000049 (1)
Der Einzelhandel in Ostmitteleuropa entwickelt sich seit dem Zusammenbruch des Sozialismus außerordentlich dynamisch. Er ist zugleich durch extreme Gegensätze gekennzeichnet: Das Spektrum der Betriebsformen reicht vom ambulanten Handel „aus der Hand“, der für viele Menschen existentielle Bedeutung einnimmt, bis zu Luxusgeschäften und SB-Warenhäusern westeuropäischer Ketten. Die Einzelhandelsstruktur wird so zum Spiegelbild der zunehmenden gesellschaftlichen Polarisierung in den Transformationsstaaten. Der Strukturwandel im Einzelhandel vollzieht sich dabei zwischen unternehmerischer Anpassung sowie administrativer Regulierung auf der lokalen Ebene und wachsender Internationalisierung. Dieses Spannungsfeld kann als maßgeblicher Erklärungsrahmen für die Transformation in Ostmitteleuropa gelten.
Drei Dinge sind es, die den Erfolg eines Einzelhandelsbetriebes bestimmen: 1. Der Standort, 2. Der Standort und 3. Der Standort – dieses Bonmot kennt jeder, der beruflich mit dem Einzelhandel zu tun hat. Was aber einen guten Standort ausmacht, wie man ihn findet und ihn bei Kräften hält - das ist nicht so klar. Das Buch möchte hier ein wenig Licht ins Dunkel bringen und diskutiert deshalb in vier Beiträgen die theoretischen Grundlagen und praktischen Probleme von klassischen und modernen Methoden der Standortplanung, Standortbewertung und Einzugsbereichsmessung. Der Band richtig sich nicht nur an Standortplaner von Einzelhandelsunternehmen, die hier ein nützliches Kompendium für die tägliche Arbeit erhalten, sondern auch an Planer und Politiker, die über die Ansiedlung von Einzelhandels(-groß)betrieben zu entscheiden haben, und für die es oft von entscheidender Bedeutung ist zu wissen, wie ein neuer Standort in
bestehenden Strukturen eingreift.
Alle Autoren verfügen über langjährigen Erfahrung mit den im Buch behandelten Methoden – sowohl aus der Perspektive der akademischen Grundlangeforschung als auch aus der Perspektive der Auftragsforschung für Unternehmen und Kommunen. Dies bürgt für eine kenntnisreiche Verbindung von Wissenschaft und Praxis und macht das Buch auch für Studierende der Geographie und der Betriebswirtschaft interessant, die sich während des Studiums mit dem Einzelhandel beschäftigen oder eine berufliche Laufbahn in diesem Sektor anstreben.
Sie sind wahrhaftig vernachlässigt, die Stadtteilzentren, Ladenzeilen, Ausfallstraßen; die Viertelzentren und Dorfkerne – eben all jene Geschäftslagen, die wir in unseren großen Städten irgendwo zwischen den Fußgängerbereichen der Cities und den Fachmarkagglomerationen entlang der Autobahnen finden. Nicht nur den Konsumenten, den Einzelhandelsunternehmen und der Stadtplanung fehlt es manchmal an Aufmerksamkeit für diese Geschäftslagen – nein, auch und vor allem der geographischen Handelsforschung: Man kann schwerlich übersehen, dass die Diskussion um den Konflikt zwischen „Innenstadt“ einerseits und „grüner Wiese“ andererseits, die seit mehr als zwanzig Jahren geführt wird, wenig Raum gelassen hat für eine wissenschaftliche Auseinandersetzung mit jenem Einzelhandel, der weder in der „Innenstadt“ noch auf der „grünen Wiese“ betrieben wird. Dieser Band versammelt deshalb zum ersten Mal Studien, die sich ausschließlich und engagiert mit den verschiedenen Typen vernachlässigter Geschäftslagen beschäftigen. Neben reichen empirischen Befunden aus Städten unterschiedlicher Größe (von Bonn bis Wien) findet der Leser in diesem Band theoretische und methodische Konzepte, die zur Erforschung der speziellen Probleme vernachlässigter Geschäftslagen geeignet sind. So entsteht eine wichtige Grundlage für den dringend notwendigen Ausbau dieser Forschungsrichtung und eine nützliche Arbeitshilfe für Stadtplaner und Standortgutachter.
Der Einzelhandel ist ein äußerst konfliktträchtiges Feld der Stadtplanung und Kommunalpolitik. Standortentscheidungen – insbesondere im großflächigen Handel - sind für die betroffenen Kommunen und die jeweiligen Investoren vpn großer Bedeutung und sollten deshalb sorgfältig vorbereitet werden. Dazu braucht man in der Regel externe Gutachter, deren Sachverstand man in der Überzeugung einkauft, er sei größer als der eigene. Aber ist er es wirklich?
Manchmal sind Zweifel angebracht: Welcher Bürgermeister kennt es nicht, das Gefühl, für viel Geld nur wenig Substanz bekommen zu haben oder das Gefühl in die Hände von „industriell“ arbeitenden Gutachtern gefallen zu sein, die schematisch Textbausteine aneinander reihen und stets nur den Ortsnamen austauschen? Selten können die Auftraggeber von Gutachten solchen Zweifeln auf den Grund gehen, weil sie erstens nicht aus der Branche sind und Ihnen zweitens keine allgemeinen Standards zur Verfügung stehen, an denen man die Qualität von Gutachten messen könnte.
Mit diesem Sammelband sollen solche Standards etabliert und den potenziellen Auftraggebern von Gutachten zur Kenntnis gebracht werden. Gleichzeitig geht es jedoch auch um die Mitverantwortung der Auftraggeber für die Qualität von Gutachten, denn nur bei klar formulierten Fragen und einem angemessenen Budget können Gutachter nutzbringende Antworten geben.
Das Buch wendet sich vor allem an Stadt- und Regionalplaner, Kommunalpolitiker, Führungskräfte aus dem Einzelhandel und der Immobilienbranche sowie – nicht zuletzt - an die, deren Verstand gekauft wird: die Gutachter.
„Kannibalisierung“ oder „Revitalisierung“? Die Diskussion um die Auswirkungen innenstadtnaher Einkaufzentren könnte kaum kontroverser sein. Während die einen Gruppe von Experten gerade in der Nähe der Einkaufszentren zur Innenstadt eine Gefährdung für den dortigen Einzelhandel sieht, geht die andere Gruppe davon aus, dass Synergieeffekte entstehen, von denen die traditionellen Innenstadtstandorte ebenso profitieren wie die neue hinzugekommen Einkaufszentren. Empirisch belegt ist weder die eine noch die andere Meinung. Eines steht allerdings fest: Der Trend der Einkaufszentren „zurück in die Innenstädte“ ist unübersehbar. Allein in den letzten Jahren wurden in Deutschland rund 50 neue Einkaufszentren in Innenstadt(rand)lage eröffnet.
Diese Studie untersucht die Auswirkungen innenstadtnaher Einkaufszentren empirisch. Am Beispiel fünf citynaher Einkaufszentren in Städten unterschiedlicher Größe werden besonders die Veränderungen im Besucherverhalten beleuchtet. Dieser Fokus wurde gewählt, weil alle etwaigen Veränderungen in den Innenstädten letztlich auf ein verändertes Besucherverhalten zurückzuführen sind. Ein besonderes Augenmerkt gilt bei der Analyse den Kopplungsbeziehungen zwischen Einkaufszentren und Innenstädten sowie dem Verhalten der Koppler. Auf der Grundlage umfangreichen empirischen Materials wird eine differenzierte Bewertung von Chancen und Risiken innenstadtnaher Einkaufszentren vorgenommen.
Die Entwicklung von E-Commerce ist vorangeschritten, die Erwartungen, die mit Verweis auf Umsatzumverteilungen zumeist als „Schreckgespenste“ dargestellt werden, haben sich allerdings als maßlos übertrieben herausgestellt. Viele Dinge lassen sich eben nicht am Umsatz messen.
Es ist nicht Anliegen dieses Sammelbandes, neue Zahlen über die Entwicklung von E-Commerce und dessen Folgen für den stationären Einzelhandel vorzulegen. Vielmehr stellt sich die Frage, welche Implikationen sich durch E-Commerce für theoretische Ansätze und den geographischen Anwendungsbezug ergeben. So hat sich das Konsumentenverhalten im Zeitalter der E-Commerce verändert. Der Konsument ist selbstbewusster, besser informiert und besitzt zumindest die theoretische Möglichkeit, weltweit von zu Hause aus einzukaufen. Letzteres macht er zwar (noch) nicht allzu häufig, dennoch ergeben sich auf der „anderen Seite“ der Produktion und des Handels Veränderungen. Rationalisierung ganzer Unternehmensabläufe auf der Basis des E-Business beeinflussen Standorte entlang der gesamten Wertschöpfungskette. Standorte werden neu bewertet, Betriebsformate ändern sich. Räumliche Konsequenzen bleiben nicht aus, sie finden sich aber nicht in der „Vernichtung innerstädtischer Standortlagen“ oder selbst nur sehr selten in der Schließung einzelner Standorte des stationären Handels, sondern viel eher im Bereich von Logistik- und Verkehrsabläufen sowie in der Übernahme von Handlungspraktiken aus dem E-Commerce durch stationäre Händler.
Der vorliegende Band zeigt neuere Ansätze im theoretischen Umgang mit E-Commerce auf und entwickelt Fragen für die praktische Handelsforschung.
Die Internationalisierung des Einzelhandels hat in den letzten 20 Jahren und vor allem in den 1990er Jahren stark zugenommen. Auch in Deutschland ist diese Entwicklung deutlich wahrzunehmen. Insbesondere Einzelhandelsunternehmen aus den USA – wie beispielsweise Woolworth, Foot Locker, Toys R Us oder Staples – sind mit einer hohen Filialdichte in Deutschland vertreten.
Ende 1997 betrat Wal-Mart – das mit Abstand größte Einzelhandelsunternehmen der Welt – den deutschen Markt. Der Markteintritt löste starke Reaktionen seitens des ansässigen Einzelhandels aus, die Medien verfolgten die ersten Schritte von Wal-Mart sehr genau. Nach sechs Jahren Präsens auf dem deutschen Markt hat Wal-Mart jedoch noch keine signifikante Position im Handelsgefüge erreichen können. Fraglich ist, ob den zahlreichen strategischen und operativen Problemen nur eine unzureichende Marktanalyse zugrunde liegt oder ob US-amerikanische Einzelhändler auf dem deutschen Markt vor besondere Herausforderungen gestellt sind?
Die vorliegende Studie befasst sich mit den Internationalisierungsstrategien US-amerikanischer Einzelhandelsunternehmen, die in Deutschland tätig sind. Ein Schwerpunkt liegt auf der Untersuchung von Wal-Mart. Stärken und Schwächen der Internationalisierung werden auf der Grundlage einer Analyse des Heimatmarktes USA herausgearbeitet. In einem internationalen Vergleich erfolgt die Ermittlung der Besonderheiten des deutschen Einzelhandelsmarktes für US-amerikanische Einzelhändler. Strategien des Markteintritts und der Marktdurchdringung sowie die Standortwahl und Diffusion stehen im Mittelpunkt der Untersuchung US-amerikanischer Einzelhändler in Deutschland.
Kaufzurückhaltung der Konsumenten und stagnierende oder sich verringernde Einzelhandelsumsätze prägen gegenwärtig die Diskussion zum Einzelhandel. Unternehmen scheinen ihre einzige Überlebensstrategie in Rabattschlachten nach dem Motto „Geiz ist geil" zusehen. Ist dies wirklich der richtige Weg, Kunden anzusprechen, und welche Standorte und Betriebsformen können überleben?
Unter der Bedingung hoher, aber stagnierender und teilweise unsicherer Einkommen werden persönliche Verhaltensweisen zur stärksten Strukturen und Standorte prägenden Größe. Immer häufiger sind bei jedem einzelnen Käufer Verhaltenspolarisierungen zu beobachten:
Kunden achten bei Grundnahrungsmitteln wie Mehl und Milch auf jeden Cent, kaufen als „smart-shopper" exklusive Markenprodukte dort, wo sie gerade zu Sonderpreisen zu bekommen sind, schlürfen zum Freizeitvergnügen aus Übersee frisch eingeflogene Austern und legen weite Entfernungen zum Erwerb von Öko-Kartoffeln zurück. Hybridisierungen bei der Orientierung auf Preis und Warengruppen sowie ständig wechselnde Einkaufsziele kennzeichnen die neuen Einkaufsmuster.
Der Einführungsbeitrag dieses Bandes (E. Kulke) gibt eine Übersicht der das Einkaufen prägenden Determinanten. Es folgen Beiträge zur Veränderung der räumlichen Orientierungen und der Auflösung von „Nearest-Center-Bindungen" (N. Martin) sowie zum Bedeutungswandel von Motivationen, insbesondere dem Öko-Einkauf (J. Weiss). Wie sich unter diesen Bedingungen neue Standorte in Transiträumen behaupten (J. Korn) und welchen Bedeutungsgewinn neue Distributionssysteme wie E-Commerce erlangen (S. Henschel), diskutieren die folgenden Aufsätze.
Das Geschäft der Besserwisser boomt. Nur wenige politische oder unternehmerische Entscheidungen werden heute noch ohne den Verweis auf wissenschaftliche Untersuchungen oder die Empfehlungen renommierter Beratungsunternehmen getroffen. Keine Ausnahme macht da die kommunale Einzelhandelsentwicklung, die seit Jahren in der Stadtplanung und Kommunalpolitik für Konflikte sorgt - ein weites Feld für Gutachter und Berater aus den unterschiedlichen Lagern. Allerdings haben nicht selten Einzelhandelsgutachten und -konzepte einen eher bescheidenen Ruf, der sich auf erkannte Defizite in der Umsetzung des Expertenrates gründet. Doch was veranlasst die Auftraggeber dazu, immer neue Untersuchungen in Auftrag zu geben? Wann genau und unter welchen Voraussetzungen kann eine Beratung erfolgreich sein und zu tatsächlichen Veränderungen führen?
In Verbindung von akademischer Grundlagenforschung und einer mehrjährigen Tätigkeit als Berater und Gutachter gewährt der Autor einen Blick hinter die Kulissen kommunalpolitischer und privatwirtschaftlicher Entscheidungen: einen Blick auf die verborgenen Ziele und Strategien der Schlüsselakteure und deren Kampf um Macht, Ressourcen und Besitzstände. Hinweise zu den möglichen Perspektiven einer einzelhandelsbezogenen Kommunalberatung ergänzen die Betrachtungen.
Die vorliegende Arbeit wurde 2005 von der Ludwig-Maximilians-Universität München als Dissertation angenommen.
Methoden und Techniken sind in der geographischen Handelsforschung gleichermaßen in der Grundlagenforschung, in der universitärenAusbildung, in der praktischen Anwendung und der Fortbildung von hoher Bedeutung. Der vorliegende Band vertieft einige bekannte methodische Aspekte, setzt aber auch neue Akzente hinsichtlich Analysemethodik und Modellierung.
Die Beiträge in dem vorliegenden Band zeigen weitergehende Möglichkeiten auf, in der geographischen Handelsforschung und insbesondere der Praxis bedeutsame Fragestellungen methodisch fassen und behandeln zu können. Die Reihenfolge der Beiträge ist thematisch gegliedert. Die Thematik wird zunächst eher allgemein orientiert vorgestellt und dann mittels einer bestimmten Fragestellung oder Untersuchung konkretisiert. So wird der umfassende Beitrag von K. E. Klein zum Einsatz geographischer Informationssysteme im Einzelhandel durch die Studie von J. Scharfenberger zu mikrogeographischen Routing- und Marktpotenzialanalysen ergänzt. Die Modellierung und Prognose von Marktgebieten im Einzelhandel wird von R. Klein zunächst allgemein diskutiert und durch die Untersuchungen von C. Kanhäusser vertieft. Die Beiträge von R. Hesse / A. Schmid sowie J. Rauh / T. Schenk / M. Fehler / F. Klügl / F. Puppe zeigen mit Simulationsmodellen und der räumlichen Optimierung neue methodische Anwendungsmöglichkeiten auf, die geeignet sind, die in der Regel vorhandene Trennung zwischen der individualistischen und der strukturellen Perspektive aufzulösen. Erstgenannte wird in der Regel z.B. bei der Untersuchung des Konsumentenverhaltens eingenommen, die Letztgenannte bei der (Standort-)Analyse der Angebotsseite.
Processes of the Earth’s surface occur at different scales of time and intensity. Climate in particular determines the activity and seasonal development of vegetation. These dynamics are predominantly driven by temperature in the humid mid-latitudes and by the availability of water in semi-arid regions. Human activities are a modifying parameter for many ecosystems and can become the prime force in well-developed regions with an intensively managed environment. Accounting for these dynamics, i.e. seasonal dynamics of ecosystems and short- to long-term changes in land-cover composition, requires multiple measurements in time. With respect to the characterization of the Earth surface and its transformation due to global warming and human-induced global change, there is a need for appropriate data and methods to determine the activity of vegetation and the change of land cover. Space-borne remote sensing is capable of monitoring the activity and development of vegetation as well as changes of the land surface. In many instances, satellite images are the only means to comprehensively assess the surface characteristics of large areas. A high temporal frequency of image acquisition, forming a time series of satellite data, can be employed for mapping the development of vegetation in space and time. Time series allow for detecting and assessing changes and multi-year transformation processes of high and low intensity, or even abrupt events such as fire and flooding. The operational processing of satellite data and automated information-extraction techniques are the basis for consistent and continuous long-term product generation. This provides the potential for directly using remote-sensing data and products for analyzing the land surface in relation to global warming and global change, including deforestation and land transformation. This study aims at the development of an advanced approach to time-series generation using data-quality indicators. A second goal focuses on the application of time series for automated land-cover classification and update, using fractional cover estimates to accommodate for the comparatively coarse spatial resolution. Requirements of this study are the robustness and high accuracy of the approaches as well as the full transferability to other regions and datasets. In this respect, the developments of this study form a methodological framework, which can be filled with appropriate modules for a specific sensor and application. In order to attain the first goal, time-series compilation, a stand-alone software application called TiSeG (Time Series Generator) has been developed. TiSeG evaluates the pixel-level quality indicators provided with each MODIS land product. It computes two important data-availability indicators, the number of invalid pixels and the maximum gap length. Both indices are visualized in time and space, indicating the feasibility of temporal interpolation. The level of desired data quality can be modified spatially and temporally to account for distinct environments in a larger study area and for seasonal differences. Pixels regarded as invalid are either masked or interpolated with spatial or temporal techniques.
Weltweit sind Trockengebiete in ständiger Veränderung, verursacht durch natürliche klimatische Schwankungen und oftmals durch Prozesse der Landdegradation. Auch weisen die meisten semi-ariden Naturräume eine große räumliche Heterogenität auf, hervorgerufen durch ein kleinräumiges Mosaik aus Gräsern, kleineren Sträuchern und Bereichen offenliegenden Bodens. Die Dichte der Vegetation wird primär vom pflanzenverfügbaren Wasser bestimmt, aber auch der Entwicklungs- und Degradationszustand der Böden sowie anthropogen bedingte Faktoren spielen hierbei eine Rolle. Zur Charakterisierung und Kartierung der Vegetation sowie zur Bewertung des Bodenerosionsrisikos und des Degradationszustands hat sich die Erhebung der Bedeckungsgrade von vitaler, photosynthetisch aktiver Vegetation (PV), von abgestorbener oder zeitweise vertrockneter und somit nicht photosynthetisch aktiver Vegetation (NPV) sowie von offenliegendem Boden als zweckmäßig herausgestellt. Die Nutzung der Fernerkundung für diese Aufgabe erfolgt zumeist nur für kleinmaßstäbige Kartierungen und – im Falle von Multispektralsensoren – unter Vernachlässigung nicht-photosynthetisch aktiver Vegetation. Die räumliche Variabilität der Vegetation-Boden-Mosaike liegt oftmals in der Größenordnung von wenigen Metern und somit unterhalb des räumlichen Auflösungsvermögens von Fernerkundungssystemen. Um dennoch die verschiedenen Anteile innerhalb eines Pixels identifizieren und quantifizieren zu können, sind Methoden der Subpixel-Klassifikation notwendig. In dieser Arbeit wird eine Methodik zur verbesserten und automatisierbaren Ableitung von Bodenbedeckungsgraden in semi-ariden Naturräumen vorgestellt. Hierzu wurde ein Verfahren zur linearen spektralen Entmischung in Form einer Multiple Endmember Spectral Mixture Analysis (MESMA) entwickelt und umgesetzt. Durch diese Methodik kann explizit die spektrale Variabilität von Vegetation und Boden in das Mischungsmodellmiteinbezogen werden, und quantitative Anteile für die funktionalen Klassen PV, NPV und Boden innerhalb eines Pixels erfasst werden. Durch die räumliche Kartierung der verwendeten EM wird weiterhin eine thematische Klassifikation erreicht. Die hierfür benötigten Informationen können – wie im Falle der Spektren reiner Materialien (EM-Spektren) – aus den Bilddaten selbst abgeleitet werden, oder können – wie ein Geländemodell und die Information über den Scanwinkel – im Zuge der Vorprozessierung aus weiteren Datenquellen erzeugt werden. Hinsichtlich der automatisierten EM-Ableitung wird eine zweistufige Methodik eingesetzt, welche auf einer angepassten Version des Sequential Maximum Angle Convex Cone (SMACC)-Verfahrens sowie der Analyse einer ersten Entmischungsiteration basiert. Die Klassifikation der gefundenen potentiellen EM erfolgt durch ein merkmalsbasiertes Verfahren. Weiterhin weisen nicht-photosynthetisch aktive Vegetation und Boden eine hohe spektrale Ähnlichkeit auf. Zur sicheren Trennung kann die Identifikation schmaler Absorptionsbanden dienen. Zu diesen zählen beispielsweise die Absorptionsbanden von Holozellulose und – je nach Bodentyp – Absorptionsbanden von Bodenmineralen. Auch die spektrale Variabilität der Klassen PV und NPV erfordert zur sicheren Unterscheidung die Verwendung biophysikalisch erklärbarer Merkmale im Spektrum. Hierzu zählen unter anderem die Stärke der Chlorophyll-Absorption, die Form und Lage der ’RedEdge’ und das Auftreten von Holozellulosebanden. Da diese spektrale Information bei herkömmlichen Entmischungsansätzen nicht berücksichtigt wird, erfolgt überwiegend eine Optimierung der Gesamtalbedo, was zu einer schlechten Trennung der Klassen führen kann. Aus diesem Grund wird in der vorliegenden Arbeit der MESMA-Ansatz dahingehend erweitert, dass spektrale Information in Form von identifizierten und parametrisierten Absorptionsbanden in den Entmischungsprozess mit einfließt und hierdurch das Potential hyperspektraler Datensätze besser genutzt werden kann. Auch wird in einer zusätzlichen Entmischungsiteration die räumliche Nachbarschaft betrachtet, um insbesondere die Verwendung des sinnvollsten Boden-EMs zu gewährleisten. Ein zusätzliches Problemfeld stellt die numerische Lösung des überbestimmten und oftmals schlecht konditionierten linearen Mischungsmodells dar. Hierzu kann durch die Verwendung des BVLS-Algorithmus und des Ausschlusses kritischer EM-Kombinationen eine numerisch stabile Lösung gefunden werden. Um die oftmals immense Rechenzeit von MESMA-Verfahren zu verkürzen, besteht die Möglichkeit einer iterativen EM-Auswahl und somit die Vermeidung einer Lösung des Mischungssystems durch Berechnung aller EM-Kombinationen (’Brute-Force’-Ansatz). Ein weiterer wichtiger Punkt ist die explizite pixelweise Angabe zur Zuverlässigkeit der Entmischungsergebnisse. Dies erfolgt auf Basis des Mischungsmodells selbst, durch den Vergleich zu empirischen Regressionsmodellen, durch die Berücksichtigung des lokalen Einfallswinkels sowie durch die Integration von Qualitätsangaben der Ausgangsdaten. Um das Verfahren systematisch und unter kontrollierten Bedingungen zu verifizieren und um den Einfluss verschiedener externer Parameter sowie die typischen Genauigkeiten auf einer breiten Datenbasis zu ermitteln, wird eine Simulationskette zur Erzeugung synthetischer Mischungen erstellt. In diese Simulationen fließen Feldspektren von Böden und Pflanzen verschiedener semi-arider Gebiete mit ein, um möglichst viele Fälle abdecken zu können. Die eigentliche Validierung erfolgt auf HyMap-Datensätzen des Naturparks ’Cabo de Gata’ in der andalusischen Provinz Almería sowie auf Messungen, die begleitend im Feld durchgeführt wurden. Hiermit konnte die Methodik auf ihre Genauigkeit unter den konkreten Anforderungen des Anwendungsbeispiels überprüft werden. Die erzielbare Genauigkeit dieser automatisierten Methodik liegt mit einem mittleren Fehler um rund 10% Abundanz absolut im selben Wertebereich oder nur geringfügig höher als die Ergebnisse publizierter manueller MESMA-Ansätze. Weiterhin konnten die typischen Genauigkeiten der Verifikation im Zuge der Validierung bestätigt werden. Den limitierenden Faktor des Ansatzes stellen in der Praxis fehlerhafte oder unvollständige EM-Modelle dar. Mit der vorgestellten Methodik ist somit die Möglichkeit gegeben, die Bedeckungsgrade quantitativ und automatisiert im Subpixelbereich zu erfassen.
Informationen über die Landbedeckung und die mit der anthropogenen Komponente verbundenen Landnutzung sind elementare Bestandteile für viele Bereiche der Politik, Wirtschaft und Wissenschaft. Darunter fallen beispielsweise die Strukurentwicklungsprogramme der EU, die Schadensregulierung im Versicherungswesen und die Modellierung von Stoffkreisläufen. CORINE Land Cover (CLC) wurde infolge eines erweiterten Bedarfs an einem europaweit harmonisierten Datensatz der Landoberfläche erstellt. Das CORINE Projekt weist für diese Arbeit eine hohe Relevanz durch die regelmäßigen Aktualisierungen von 10 Jahren, dem Einsatz der Daten in vielen europäischen und nationalen Institutionen und der guten Dokumentation der CORINE Nomenklatur auf. Die Erstellung der Daten basiert auf der computergestützten manuellen Interpretation, da automatische Verfahren durch die Komplexität der Aufgabenstellung und Thematik nicht in der Lage waren, den menschlichen Interpreten zu ersetzen. Diese Arbeit stellt eine Methodik vor, um CORINE Land Cover aus optischen Fernerkundungsdaten für eine kommende Aktualisierung abzuleiten. Hierzu dienen die Daten von CLC 1990 und der Fernerkundungsdatensatz Image 2000 als Grundlage, sowie die CLC 2000 Klassifikation als Referenz. Die entwickelte und in dem Softwarepaket gnosis implementierte Methodik wendet die objektorientierte Klassifikation in Kombination mit Theorien aus der menschlichen Bildwahrnehmung an. In diesen Theorien wird die Bildwahrnehmung als informationstechnischer Prozess gesehen, der den Klassifikationsprozess in die drei folgenden Subprozesse unterteilt: Bildsegmentierung, Merkmalsgenerierung und Klassenzuweisung. Die Bildsegmentierung generiert aus den untersten Bildprimitiven (Pixeln) bedeutungsvolle Bildsegmente. Diesen Bildsegmenten wird eine Anzahl von bildinvarianten Merkmalen aus den Fernerkundungsdaten für die Bestimmung der CLC Klasse zugewiesen. Dabei liegt die wichtigste Information in der Ableitung der Landbedeckung durch den überwachten Stützvektor-Klassifikator. Die Landoberfläche wird hierzu in zehn Basisklassen untergliedert, um weiteren Merkmalen einen semantischen Unterbau zu geben. Zur Bestimmung der anthropogenen Komponente von ausgewählten Landnutzungsklassen, wie beispielsweise Ackerland und Grünland, wird der phänologische Verlauf der Vegetation durch die Parameter temporale Variabilität und temporale Intensität beschrieben. Neben dem jahreszeitlichen Verlauf der Vegetation können Nachbarschaftsbeziehungen untersucht werden, um weitere anthropogene Klassen und heterogen aufgebaute Sammelklassen beschreiben zu können. Der Versiegelungsgrad als Beispiel für eine Reihe von unscharfen Merkmalen dient der weiteren Differenzierung der verschiedenen Siedlungsklassen aus CORINE LC. Mit Hilfe dieser Merkmale werden die CLC Klassen in abstrakter Form im Klassenkatalog (a-priori Wissensbasis) als Protoklassen beschrieben. Die eigentliche Objekterkennung basiert auf der Repräsentation der CORINE Objekte durch ihre einzelnen Bestandteile und vergleicht die gefundenen Strukturen mit der Wissensbasis. Semantisch homogen aufgebaute Klassen, wie Wälder und Siedlungen oder Protoklassen mit eindeutigen Merkmalen, beispielsweise zur Bestimmung von Grünland durch die Phänologie, können durch den bottom–up Ansatz identifiziert werden. Das übergeordnete CLC Objekt kann direkt aus den Bestandteilen zusammengebaut und einer Klasse zugewiesen werden. Semantisch heterogene Klassen, wie zum Beispiel bestimmte Sammelklassen (Komplexe Parzellenstrukur), können durch ihre Bestandteile validiert werden, indem die Bestandteile eines existierenden CLC Objektes mit der Wissensbasis auf Konsistenz untersucht werden (top–down Ansatz). Eine a-priori Datengrundlage ist für die Erkennung dieser Klassen essentiell. Die Untersuchung der drei Testgebiete (Frankfurt, Berlin, Oldenburg) zeigte, dass von der CORINE LC Nomenklatur 13 Klassen identifiziert und weiteren 14 Klassen validiert werden können. Zehn Klassen können durch diese Methodik aufgrund fehlender Merkmale oder Zusatzdaten nicht klassifiziert werden. Die Gesamtgenauigkeit der automatisierten Klassifikation für die Testgebiete beträgt zwischen 70% und 80% für die umgesetzten Klassen. Betrachtet man davon einzelne Klassen, wie Siedlungs-, Wald- oder Wasserklassen, wird aufgrund der verwendeten Merkmale eine Klassifikationsgenauigkeit von über 90% erreicht. Ein möglicher Einsatz der entwickelten Software gnosis liegt in der Unterstützung einer kommenden CORINE Aktualisierung durch die Prozessierung der identifizierbaren Klassen. Diese CLC Klassen müssen vom Interpreten nicht mehr überprüft werden. Für bestimmte CLC Klassen aus dem Top-down Ansatz wird der Interpret die letzte Entscheidung aus einer Auswahl von Klassen treffen müssen. Weiterhin können die berechneten Merkmale, wie die temporalen Eigenschaften und der Versiegelungsgrad dem Bearbeiter als Entscheidungsgrundlage zur Verfügung gestellt werden. Der Einsatz dieser neu entwickelten Methode führt zu einer Optimierung des bestehenden Aufnahmeverfahrens durch die Integration von semi-automatisierten Prozessen.
Business lmprovement Districts (BID) gelten als vielversprechendes Instrument der Quartiersentwicklung und Modell zur Attraktivitätssteigerung von Innenstädten und Stadtteilzentren. In BID bezahlen Grundeigentümer oder Gewerbetreibende eine Abgabe für eine private Organisation, die Programme zur Attraktivitätssteigerung des Gebiets durchführt. Die Gründung eines BID bedarf anfänglich der Zustimmung eines Mindestteils der Betroffenen, die Abgabe ist aber nach der Implementierung für alle verbindlich.
Nachdem sich BID in Nordamerika weit verbreitet haben, wird das Modell nun weltweit implementiert. In Deutschland haben einige Bundesländer, darunter als erste Hamburg, Hessen, Bremen und Schleswig-Holstein, bereits entsprechende Gesetze eingeführt, andere Bundesländer arbeiten daran.
Die Autoren des Bandes ziehen ein Zwischenfazit der Implementierung von BID in Deutschland und analysieren die Erfolge und Probleme sowie Konflikte, die bei der Etablierung von BID auftauchen. Sie thematisieren die Wesentlichen Forschungsstränge, die sich mit BID auseinandersetzen, die paradigmatisch für den Wandel von government zu governance in der Stadtentwicklung stehen, und diskutieren an konkreten Fallstudien grundsätzliche Fragen der Quartiersentwicklung,
der Partizipation und die Vor- und Nachteile verpflichtender und freiwilliger Modelle der Zentrenentwicklung. Der Blick auf internationale Erfahrungen zeigt alternative Entwicklungspfade von BID auf.
Im Rahmen der vorliegenden Arbeit wurden die Druck-Temperatur-Bildungsbedingungen metapelitischer Gesteine aus verschiedenen lithostratigraphischen Formationen des Spessart-Kristallins untersucht. Geologisch stellt das Spessart-Kristallin einen Teil der Mitteldeutschen Kristallinzone dar, die sich innerhalb des Orogens der mitteleuropäischen Varisziden am nördlichen Rand des Saxothuringikums erstreckt. Das wesentliche Ziel der Untersuchungen bestand darin, mittels phasenpetrologischer und geothermobarometrischer Methoden die Metamorphose-Entwicklung des Spessart-Kristallins zu rekonstruieren und in Beziehung zur geodynamischen Geschichte der Varisziden zu setzen. Der Schwerpunkt der Arbeiten lag auf den Staurolith-Glimmerschiefern der Mömbris-Formation. Darüber hinaus wurden Gesteine der Geiselbach-, Alzenau- und Elterhof-Formation einbezogen. Als Grundlage für die Phasenpetrologie wurden petrographische, mineralchemische und geochemische Untersuchungen durchgeführt. Prograde Metamophose-Zonen können im Spessart-Kristallin nicht kartiert werden. Die Protolithe der untersuchten Metasedimente stellten vermutlich häufig saure bis intermediäre Magmatite dar, für die Geiselbach- und Elterhof-Formation wohl auch quarzreiche Sedimente. Die geo¬chemischen Daten lassen für die Mömbris-, Alzenau- und Elterhof-Formation Grauwacken bis Pelite als sedimentäre Edukte der Metamorphite annehmen, die Gesteine der Geiselbach-Formation könnten auf Arkosen zurückgehen. Eine Ablagerung der sedimentären Edukte im Bereich eines Kontinen¬talen Inselbogens bis Aktiven Kontinentalrandes ist für die Mömbris- und Alzenau-Formation wahrscheinlich, für die Geiselbach- und Elterhof-Formation liegt kein eindeutiges Bild vor. Zur Abschätzung der Metamorphosebedingungen wurden verschiedene Phasendiagramme verwendet, die auf den metapelitischen Modellsystemen KMnFMASH (K2O-MnO-FeO-MgO-Al2O3-SiO2-H2O) und KFMASH (K2O-FeO-MgO-Al2O3-SiO2-H2O) basieren, insbesondere P-T-Pseudoschnitte und T-X-Schnitte. Weiterhin wurden konventionelle Geothermobarometer berechnet und Abschätzungen mittels intern-konsistenter thermodynamischer Datensätze vorgenommen. Die theoretischen Grundlagen dieses phasenpetrologischen Ansatzes werden kurz erläutert. Für den Metamorphose-Höhepunkt der Gesteine ergaben sich Temperaturen im Bereich von ca. 600 - 615 °C und Drucke um 6.5 - 8 kbar. Diese Daten weisen eine recht gute Übereinstimmung zu den bisher in der Literatur bekannten Werten für das Spessart-Kristallin auf. Im Anschluß an die amphibolitfazielle Metamorphose wurden die Gesteine mehr oder minder stark retrograd überprägt. Anzeichen für eine polymetamorphe Entwicklung dieses Teils der Mitteldeutschen Kristallinzone liegen nicht vor. Die rekonstruierten P-T-Pfade bzw. P-T-Pfad-Segmente dokumentieren eine recht einheitliche metamorphe Entwicklung im Uhrzeigersinn („clockwise“) und weisen auf eine Barrow-type Metamorphose hin. Die P-T-Pfade der meisten Proben zeigen einen charakteristischen Verlauf mit einer Phase nahezu isothermaler Dekompression. Demgegenüber konnte für einige Disthen-führende Proben ein etwas flacherer P-T-Pfad mit einer offenbar geringfügig stärker Temperatur-betonten Entwicklung differenziert werden. Das Metamorphose-Maximum ist für diese Gesteine durch Temperaturen von ca. 620 - 630 °C und Drucke von etwa 6 - 8 kbar gekennzeichnet. Damit wird eine leichte Zunahme des Metamorphosegrades nach Süden innerhalb der Mömbris-Formation, die verschiedentlich vermutet worden war, nachgewiesen. Die neu erarbeiteten Pfade sind aufgrund des methodischen Ansatzes, der die Zusammensetzung und Mineralparagenese der jeweiligen Probe berücksichtigt, im Vergleich zu früheren Arbeiten deutlich besser abgesichert. Sie dokumentieren erstmals in dieser Form die Druck-Temperatur-Geschichte des Spessart-Kristallins. Die P-T-Pfade lassen auf eine relativ schnelle Versenkung der Gesteine bei einem recht niedrigen geothermischen Gradienten und eine anschließende rasche Heraushebung aus einer Tiefe von etwa 25 - 28 km auf etwa 15 - 18 km bei einer eher geringen Temperaturabnahme schließen. Die damit für das Spessart-Kristallin dokumentierte Entwicklung fügt sich gut in das aktuelle geotektonische Modell einer Kollision eines passiven Kontinentalrandes mit einem kontinentalen Bogen ein und steht in Analogie zur derzeit gängigen Vorstellung, die Mitteldeutsche Kristallinschwelle repräsentiere einen variszischen aktiven Plattenrand.
Warum sind manche Unternehmen und warum manche Regionen innovativer als andere? Zahlreichen wissenschaftlichen Beiträgen zufolge ist die Antwort auf diese Frage vom vorhandenen Humankapital und dem vorhandenen und verfügbaren Wissen abhängig. Innovationen werden von Menschen vorangetrieben. Warum scheinen die Mitarbeiter mancher Unternehmen innovativer zu sein, als die Mitarbeiter anderer Unternehmen? Diese Frage gewinnt angesichts zunehmender Dynamik, einem intensiveren Wettbewerb und einem rascheren Wertewandel im heutigen Unternehmensumfeld an praktischer und theoretischer Relevanz. Tatsächlich erhöht der immer schneller werdende technologische, gesellschaftliche und wirtschaftliche Wandel die bei Innovationsvorhaben ohnehin schon stetig steigende Aufgabenkomplexität und Projektunsicherheit. Allerdings birgt dieser Wandel nicht nur Unsicherheit, sondern schafft in zunehmendem Maße unternehmerische Chancen, die sowohl von Unternehmern und Gründern als auch von Mitarbeitern genutzt werden können. Viele innovationstheoretische Untersuchungen konzentrieren sich auf eine faktorielle Darstellung von erfolgswirksamen Rahmenbedingungen, die es herzustellen gilt, um ein ‚gesundes’ Milieu zu schaffen, in dem Menschen Unternehmen gründen und Innovationen vorantreiben. Verhaltensorientierte Studien im Kontext der Innovations- und Gründungsforschung zeigen, dass gerade Faktoren, die im Zusammenhang mit der Person stehen, einen erheblichen Einfluss auf den Innovations- und Gründungserfolg haben. Um in diesem Kontext eine Ursache für Regionalentwicklung zu finden, verbleibt die Suche nicht bei einer rein auf Faktorausstattung reduzierten Erklärung. Dagegen rückt die Studie den Mikrofaktor Humankapital im Zusammenhang zur Innovationsentwicklung in den Mittelpunkt. Sie leistet damit einen Beitrag zum Entstehungsprozess von Innovationen, indem empirisch untersucht wird, welche unternehmerischen Kompetenzen in einem Innovationsprozess benötigt werden und welche daraus resultierenden Handlungsstrategien den Erfolg der Innovationsteams bedingen.
Vulnerabilitätsabschätzung der erdbebengefährdeten Megacity Istanbul mit Methoden der Fernerkundung
(2008)
Urbane Räume zählen zu den dynamischsten Regionen dieser Erde. Besonders Megacities zeigen bereits heute Trends und Dimensionen der Urbanisierung, deren regionale und globale Folgen noch kaum vorhersehbar, und erst ansatzweise erforscht sind. Die enorme räumliche Konzentration von Menschen, Werten und Infrastruktur auf engem Raum ist für diese urbanen Räume die Grundlage einer hohen Verwundbarkeit (Vulnerabilität). Gerade im Kontext von Naturgefahren potenzieren sich die Risiken, die durch den schnellen strukturellen, sozioökonomischen und ökologischen Wandel entstehen. Das übergeordnete Ziel dieser Dissertation ist daher die Analyse von Potentialen der Fernerkundung zur Abschätzung von Risiko und Vulnerabilität am Beispiel der erdbebengefährdeten Megacity Istanbul. Um die Zielstellung systematisch zu verfolgen, wird ein konzeptioneller, thematischer Leitfaden entwickelt. Dieser besteht aus einer Systematisierung der abstrakten Überbegriffe ‚Risiko’, ‚Vulnerabilität’ und ‚Gefährdung’ in einem Indikatorensystem. Konkrete, messbare Indikatoren für das System ‚urbaner Raum’ erlauben eine quantitative Abschätzung von Einzelaspekten, addieren sich aber auch zu einer ganzheitlichen Perspektive des Risikos. Basierend auf dieser holistischen Idee, erlaubt das Indikatorensystem Potentiale, aber auch Limitierungen der Fernerkundungsdaten und Bildverarbeitungsmethoden für die Abschätzung von Risiko und Vulnerabilität zu identifizieren. Anhand des Leitfadens werden zielgerichtet Methoden zur automatisierten Extraktion räumlicher Informationen aus Fernerkundungsdaten entwickelt. Ein objektorientierter, modularer Klassifikationsansatz ermöglicht eine Landbedeckungsklassifikation höchst aufgelöster Daten im urbanen Raum. Dieses modulare Rahmenwerk zielt auf eine einfache und schnelle Übertragbarkeit auf andere höchst auflösende Sensoren bzw. andere urbane Strukturen. Zur Anpassung der Methoden werden neben IKONOS Daten der Megacity Istanbul und der erdbeben- und tsunamigefährdeten Küstenstadt Padang in Indonesien, Quickbird Daten für die zukünftige Megacity Hyderabad in Indien getestet. Die Resultate zeigen die detaillierte und hochgenaue Erfassung kleinräumiger, heterogener urbaner Objekte mit Genauigkeiten von über 80 %. Auch mittel aufgelöste Landsat Daten werden mit einem objektorientierten modularen Rahmenwerk mit hohen Genauigkeiten klassifiziert, um komplementäre temporale und gesamtstädtische Analysen hinzuzufügen. Damit wird eine aktuelle, flächendeckende und multiskalige Informationsbasis generiert, die als Ausgangsprodukt zur Analyse urbaner Vulnerabilität dient. Basierend auf diesen Informationsebenen werden dem konzeptionellen Leitfaden folgend Indikatoren zur Abschätzung von Vulnerabilität und Risiko extrahiert. Der Fokus ist dabei die Entwicklung von Methoden zur automatisierten, interpreterunabhängigen Ableitung vulnerabilitäts- und gefährdungsrelevanter Indikatoren. Die physische Analyse des kleinräumigen urbanen Raums konzentriert sich dabei auf die Typisierung des Gebäudebestandes mit Parametern wie Dichte, Höhe, Alter, Größe, Form sowie Dachtyp. Indirekt wird zudem mittels dieser Parameter die Bevölkerungsdichteverteilung abgeleitet. Weitere Standortfaktoren ergeben sich aus Lageparametern wie Distanzen zu Hauptverkehrsachsen, Freiflächenanalysen oder der Geländeoberfläche. Schließlich führt die Vulnerabilitätsabschätzung den modellhaften, thematischen Leitfaden mit den abgeleiteten Indikatoren zusammen. Dazu erfolgt eine Normierung der unterschiedlichen abgeleiteten Indikatoren auf einen einheitlichen Vulnerabilitätsindex. Dieser zielt auf eine räumliche und zeitliche Vergleichbarkeit und die Möglichkeit, die vielfältigen Informationsebenen zu kombinieren. Damit wird das Zusammenspiel verschiedenster Indikatoren simuliert und erlaubt daraus Identifizierung und Lokalisierung von Brennpunkten im Desasterfall. Über das fernerkundliche Potential hinaus, werden die Resultate in einer interdisziplinären Methode zu einem synergetischen Mehrwert erhoben. Statt einer quantitativen Abschätzung der physischen Gebäudeparameter, ermöglicht eine Methode des Bauingenieurwesens in Kombination mit der fernerkundlichen Gebäudetypisierung eine Abschätzung der wahrscheinlichen Schadensanfälligkeit von Gebäuden im Falle eines Erdbebens. Exemplarisch wird das Potential der Resultate für Entscheidungsträger anhand eines Erdbebensszenarios aufgezeigt. Risiko und Vulnerabilität lassen sich dadurch räumlich sowohl nach betroffenen Häusern und betroffenen Menschen als auch nach räumlichen Standortfaktoren wie beispielsweise Zugänglichkeit quantifizieren. Dies ermöglicht gezielt präventiv zu agieren oder während und nach einem Desaster gezieltes Krisenmanagement zu betreiben. Im Hinblick auf die zentrale Fragestellung dieser Dissertation lässt sich resümieren, dass die Aktualität sowie die geometrische und thematische Qualität der Resultate aus Fernerkundungsdaten, den Anforderungen des komplexen, kleinräumigen und dynamischen urbanen Raums gerecht werden. Die Resultate führen zu der Erkenntnis, dass das Potential der Fernerkundung zur Abschätzung von Vulnerabilität und Risiko vor allem in der direkten Ableitung physischer Indikatoren sowie der indirekten Ableitung demographischer Parameter liegt.
Für eine dauerhaft gesicherte und umweltgerechte Energieerzeugung kommt den erneuerbaren Energien in Zukunft eine immer größere Bedeutung zu. Dies stellt eine große Herausforderung für die Entwicklung zukünftiger Energiesysteme dar, da erneuerbare Energieträger zeitlich und räumlich zumeist hoch variabel zur Verfügung stehen. Eine effiziente Integration solar erzeugter Energie in das bestehende Energieversorgungsnetz ist daher nur möglich, wenn verlässliche Nahe-Echtzeit-Vorhersagen der am Erdboden verfügbaren Einstrahlung und ein- bis dreitägige Vorhersagen von Energieproduktion und -nachfrage zur Verfügung stehen. Die vorliegende Arbeit beschäftigt sich mit der Vorhersage der solaren Strahlung für die nächsten Tage und Stunden im Hinblick auf Anwendungen in der Energiewirtschaft. Der dominante Atmosphärenparameter für die Abschwächung der solaren Einstrahlung ist die Bewölkung. Das größte wirtschaftliche Potential der Solarenergie liegt jedoch in Zeiträumen und Regionen, in denen wenig Bewölkung auftritt. Im wolkenlosen Fall beeinflussen vor allem Aerosole, feste und flüssige Partikel in der Atmosphäre, die direkte und diffuse Strahlung am Erdboden. Aerosole sind durch eine hohe zeitliche und räumliche Variabilität gekennzeichnet, die die Bestimmung ihrer raumzeitlichen Verteilung und damit ihres Einflusses auf die Strahlung erschwert und einen hohen Aufwand zu ihrer Prognose erforderlich macht. Am Beispiel eines fünfmonatigen europäischen Datensatzes (Juli-November 2003) werden Prognosen der aerosoloptischen Tiefe bei 550 nm (AOT550) untersucht, die aus Aerosolvorhersagen eines Chemie-Transport-Modells stammen. Es zeigt sich, dass im Vergleich mit Bodenmessungen die Aerosolprognosen mit einer mittleren Unterschätzung von -0,11 und einem RMSE von 0,20 die geforderte Genauigkeit nicht ganz erreichen. Dabei stellen insbesondere die unregelmäßig auftretenden Saharastaubausbrüche über dem zentralen Mittelmeer eine im Modell bisher nicht erfassbare Quelle großer Ungenauigkeiten in der AOT- und damit auch in der Strahlungsvorhersage dar. Entsprechend der hohen regionalen Aerosol-Variabilität finden sich zudem signifikante Unterschiede zwischen den Regionen, zum Beispiel eine deutliche Unterschätzung des Aerosolaufkommens in der stark industriell belasteten Po-Ebene Norditaliens sowie gute Entsprechungen in abgelegenen Gegenden Nordeuropas. Basierend auf dieser Aerosol-Prognose und unter Einbeziehung weiterer Fernerkundungsdaten (Bodenalbedo, Ozon) und Parametern aus der numerischen Wetterprognose (Wasserdampf, Wolken) wird ein Prototyp für ein Vorhersagesystem der Solarstrahlung konzipiert und vorgestellt: das AFSOL-System (Aerosol-based Forecasts of Solar Irradiance for Energy Applications). An Hand der fünfmonatigen Testepisode wird das AFSOL-System mit Vorhersagen des Europäischen Zentrums für Mittelfrist-Wettervorhersage (ECMWF), mit satellitenbasierten Beobachtungen der Solarstrahlung (Meteosat-7) und mit Bodenmessungen der Solarstrahlung verglichen. Für den wolkenlosen Fall erzielt das AFSOL-Modellsystem eine deutliche Verbesserung der Direktstrahlungsprognosen gegenüber den ECMWF-Vorhersagen, mit einer Reduktion des relativen Bias von -26% auf +11% und des relativen RMSE von 31% auf 19%. Dies kann auf die verbesserte Beschreibung des atmosphärischen Aerosols zurückgeführt werden, die sich im Vergleich zu den am ECMWF genutzten AOT-Klimatologien ergibt, auch wenn insbesondere bei der Behandlung von Wüstenstaubepisoden weiterhin Probleme auftreten. Auch die Globalstrahlungsprognosen erreichen im wolkenlosen Fall eine höhere Genauigkeit als die operationell verfügbaren ECMWF-Vorhersagen, was sich in einer Verringerung des relativen Bias von -10% zu +5% sowie des relativen RMSE von 12% zu 7% zeigt. Im bewölkten Fall jedoch können die Vorhersagen des AFSOL-Systems erhebliche Ungenauigkeiten aufweisen, die sich auf Grund von Problemen bei der Wolkenprognose des zu Grunde liegenden numerischen Wettervorhersagemodells ergeben. Abschließend wird in einer Fallstudie zur Verwendung der Vorhersagen für die optimale Betriebsführung eines solarthermischen Kraftwerks in Spanien beispielhaft gezeigt, dass die Nutzung der AFSOL-Prognose im wolkenlosen Fall eine deutliche Gewinnsteigerung bei der Einspeisung ins öffentliche Stromnetz durch den Handel an der spanischen Strombörse ermöglicht.
Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%.