Monographien (Books)
Refine
Has Fulltext
- yes (121)
Year of publication
Document Type
- Doctoral Thesis (74)
- Book (42)
- Conference Proceeding (5)
Language
- German (76)
- English (39)
- Multiple languages (4)
- French (1)
- Spanish (1)
Keywords
- Nachhaltigkeit (9)
- Bayern (7)
- Deutschland (7)
- Regionalentwicklung (6)
- Tourismus (6)
- Neolithikum (5)
- Archäologie (4)
- Betriebswirtschaftslehre (4)
- CAPM (4)
- Capital-Asset-Pricing-Modell (4)
Institute
- Institut für Geographie und Geologie (28)
- Institut für Informatik (13)
- Institut für Altertumswissenschaften (11)
- Betriebswirtschaftliches Institut (10)
- Graduate School of the Humanities (6)
- Institut für Mathematik (6)
- Neuphilologisches Institut - Moderne Fremdsprachen (6)
- Fakultät für Humanwissenschaften (Philos., Psycho., Erziehungs- u. Gesell.-Wissensch.) (5)
- Institut für Kulturwissenschaften Ost- und Südasiens (4)
- Institut für Psychologie (4)
Sonstige beteiligte Institutionen
- Department of English, Jamia Millia Islamia (A Central University), New Delhi (1)
- Dissertation am Institut für Sportwissenschaft, Universität Bayreuth (1)
- English Department, University of Zurich (1)
- Geographisches Institut (Humboldt Universität zu Berlin) (1)
- Geographisches Institut (Universität zu Köln) (1)
- Geographisches Institut der Universität zu Köln (1)
- Hochschule für angewandte Wissenschaften München, Fakultät für Tourismus (1)
- Institut für Humangeographie, Goethe-Universität Frankfurt am Main (1)
- Institut für Ur- und Frühgeschichtiche Archäologie und Vorderasiatische Archäologie der Universität Heidelberg (1)
- Julius-Maximilians-Universität Würzburg (JMU), Department of English and American Studies (1)
ResearcherID
- I-5818-2014 (1)
Der vielschichtige Begriff Entwicklung stellt die Basis für die multidisziplinäre Entwicklungsforschung, aber auch die Entwicklungspolitik und Entwicklungszusammenarbeit dar und wird demzufolge auf verschiedenste Art und Weise verwendet. Insbesondere zu den Auswirkungen regionaler Entwicklungsprozesse auf lokaler Ebene existieren innerhalb der entwicklungstheoretischen Ideengeschichte eine Vielzahl unterschiedlicher Zugänge, über die die vorliegende Arbeit einen kurzen Überblick gibt. Unter Berücksichtigung anthropogeographischer Ansätze zur Erforschung des Verhältnisses von Entwicklung und Raum werden im ersten (theoretischen) Teil die Konzepte der lokalen Partizipation sowie der Politischen Ökologie als geeignete Analyseinstrumente für das Verständnis konkreter lokaler Entwicklungsprozesse erarbeitet; Entwicklung wird hierbei akteurs- und kontextorientiert als Ergebnis von Mensch-Umwelt-Interaktionen angesehen.
Im Rahmen eines case study research wird im zweiten Teil der Arbeit die Praxistauglichkeit dieser Analyseinstrumente überprüft. Hierfür werden in zwei Untersuchungsregionen regionale Entwicklungsdynamiken beschrieben und analysiert, um deren räumliche und soziale Auswirkungen zu verstehen. In beiden Gebieten (Mampu/Mbankana in der Demokratischen Republik Kongo sowie Wasini Island in Kenia) hat in den vergangenen Jahren eine durch unterschiedliche Prozesse verursachte rasante Regionalentwicklung stattgefunden, die die Gebiete jeweils deutlich von ihrem Umland abhebt. Im Fallbeispiel Wasini Island wurde die Entwicklung durch den (internationalen) Tourismus bedingt, in Mampu/Mbankana durch ein Entwicklungsprojekt der Hanns-Seidel-Stiftung (HSS). Für beide Gebiete wird zuerst der naturräumliche, politische und historische Kontext aufgezeigt, welcher die Rahmenbedingungen für die Analyse der einzelnen Akteure und Akteursgruppen darstellt. Sowohl für Wasini Island als auch für Mampu/Mbankana können während des Untersuchungszeitraums Ereignisse identifiziert werden, die von der einheimischen Bevölkerung (bzw. Teilen dieser) als stark situationsverändernd und zudem nicht endogen verursacht wahrgenommen werden (externe Krisen): in Wasini der drastische Einbruch der Touristenzahlen nach den Unruhen im Nachgang der Präsidentschaftswahlen (2007/08 Kenyan Crisis), im kongolesischen Untersuchungsgebiet der schrittweise Rückzug der HSS aus dem operativen Projekt ab 2009 und die damit einhergehende Übertragung von Verantwortung auf lokale Gremien und Organisationen.
Durch die Zusammenführung der Ergebnisse aus beiden Fallbeispielen wird konstatiert, dass Entwicklung auf regionaler Ebene als ein kontext- und akteursabhängiger dynamischer Prozess anzusehen ist, der aus den kumulierten, in beide Richtungen wirksamen Mensch-Umwelt-Interaktionen in der betrachteten Region resultiert, und damit in der Tradition geopossibilistischer Perspektiven steht, in denen die natürliche bzw. geographische ebenso wie die gesellschaftliche Umwelt die Rahmenbedingungen für menschliches Handeln und damit Entwicklung vorgibt, jedoch nicht determiniert.
Der Einzug des Rechners in den Mathematikunterricht hat eine Vielzahl neuer Möglichkeiten der Darstellung mit sich gebracht, darunter auch multiple, dynamisch verbundene Repräsentationen mathematischer Probleme. Die Arbeit beantwortet die Frage, ob und wie diese Repräsentationsarten von Schülerinnen und Schüler in Argumentationen genutzt werden. In der empirischen Untersuchung wurde dabei einerseits quantitativ erforscht, wie groß der Einfluss der in der Aufgabenstellung gegebenen Repräsentationsform auf die schriftliche Argumentationen der Schülerinnen und Schüler ist. Andererseits wurden durch eine qualitative Analyse spezifische Nutzungsweisen identifiziert und mittels Toulmins Argumentationsmodell beschrieben. Diese Erkenntnisse wurden genutzt, um Konsequenzen bezüglich der Verwendung von multiplen und/oder dynamischen Repräsentationen im Mathematikunterricht der Sekundarstufe zu formulieren.
Das Thema „Patientenverfügung“ ist zunehmend in den Fokus gesellschaftlicher Diskussion geraten, betrifft es doch einen sensiblen und höchstpersönlichen Bereich des menschlichen Lebens. Angesichts der gestiegenen Lebenserwartung, des medizinisch-technischen Fortschritts sowie der damit verbundenen Möglichkeiten neuer Behandlungs- und Therapiemöglichkeiten steht auch das Selbstbestimmungsrecht des einzelnen Patienten vor neuen Herausforderungen, die in der ethischen, medizinischen und juristischen Debatte diskutiert werden.
Auch der Gesetzgeber hat angesichts der gesellschaftlichen Diskussion und rechtlichen Zweifelsfragen gesetzlichen Regelungsbedarf gesehen und daher mit dem am 18. Juni 2009 von Deutschen Bundestag verabschiedeten „Dritte[n] Gesetz zur Änderung des Betreuungsrechts“ den Versuch einer rechtlichen Normierung unternommen: Das Institut der Patientenverfügung wurde durch Aufnahme ins BGB auf eine gesetzliche Grundlage gestellt. Angesichts der Sensibilität und der möglicherweise gravierenden Folgen der mittels einer Patientenverfügung zu treffenden Entscheidungen kann die gesetzliche Normierung jedoch nicht den Endpunkt der Diskussion darstellen. Vielmehr ist diese selbst darauf zu untersuchen, inwiefern sie ihrem Ziel, der Achtung und Stärkung der Patientenautonomie bzw. des individuellen Selbstbestimmungsrechts in medizinischen Angelegenheiten gerecht wird. Zudem gebieten Änderungen der gesellschaftlich maßgebenden ethisch-moralischen Wertvorstellungen sowie die stetigen medizinisch-technischen Fortschritte und Veränderungen eine Evaluation, Überprüfung und gegebenenfalls Anpassung entsprechender rechtlicher Regelungen.
Das Institut der Patientenautonomie ist daher angesichts seiner Komplexität und seiner ethischen Relevanz zu dekonstruieren und in seiner konkreten Ausgestaltung zu hinterfragen. Die vorliegende Arbeit überprüft und untersucht das Institut der Patientenverfügung dabei aus dem Blickwinkel der Patientenautonomie dahingehend, ob durch das 3. BtÄndG bzw. die gesetzliche Neuregelung die Patientenautonomie gestärkt oder geschwächt wurde. Die gegensätzlichen Pole zur Patientenautonomie und zum Willen des Patienten stellen dabei das Prinzip der staatlichen Fürsorge sowie das eher paternalistisch verstandene Wohl des Patienten dar. Zwischen diesen beiden idealtypischen Extremen bewegt sich der Untersuchungsbereich.
Der Einsatz von Multicore-Prozessoren in der industriellen Steuerungstechnik birgt sowohl Chancen als auch Risiken. Die vorliegende Dissertation entwickelt und bewertet aus diesem Grund generische Strategien zur Nutzung dieser Prozessorarchitektur unter Berücksichtigung der spezifischen Rahmenbedingungen und Anforderungen dieser Domäne.
Multicore-Prozessoren bieten die Chance zur Konsolidierung derzeit auf dedizierter Hardware ausgeführter heterogener Steuerungssubsysteme unter einer bisher nicht erreichbaren temporalen Isolation. In diesem Kontext definiert die vorliegende Dissertation die spezifischen Anforderungen, die eine integrierte Ausführung in der Domäne der industriellen Automatisierung erfüllen muss. Eine Vorbedingung für ein derartiges Szenario stellt allerdings der Einsatz einer geeigneten Konsolidierungslösung dar. Mit einem virtualisierten und einem hybriden Konsolidierungsansatz werden deshalb zwei repräsentative Lösungen für die Domäne eingebetteter Systeme vorgestellt, die schließlich hinsichtlich der zuvor definierten Kriterien evaluiert werden.
Da die Taktraten von Prozessoren physikalische Grenzen erreicht haben, werden sich in der Steuerungstechnik signifikante Performanzsteigerungen zukünftig nur durch den Einsatz von Multicore-Prozessoren erzielen lassen. Dies hat zur Vorbedingung, dass die Firmware die Parallelität dieser Prozessorarchitektur in geeigneter Weise zu nutzen vermag. Leider entstehen bei der Parallelisierung eines komplexen Systems wie einer Automatisierungs-Firmware im Allgemeinen signifikante Aufwände. Infolgedessen sollten diesbezügliche Entscheidungen nur auf Basis einer objektiven Abwägung potentieller Alternativen getroffen werden. Allerdings macht die Systemkomplexität eine Abschätzung der durch eine spezifische parallele Firmware-Architektur zu erwartenden Performanz zu einer anspruchsvollen Aufgabe. Dies gilt vor allem, da eine Parallelisierung gefordert wird, die für eine Vielzahl von Lastszenarien in Form gesteuerter Maschinen geeignet ist. Aus diesem Grund spezifiziert die vorliegende Dissertation eine anwendungsorientierte Methode zur Unterstützung von Entwurfsentscheidungen, die bei der Migration einer bestehenden Singlecore-Firmware auf eine homogene Multicore-Architektur zu treffen sind. Dies wird erreicht, indem in automatisierter Weise geeignete Firmware-Modelle auf Basis von dynamischem Profiling der Firmware unter mehreren repräsentativen Lastszenarien erstellt werden. Im Anschluss daran werden diese Modelle um das Expertenwissen von Firmware-Entwicklern erweitert, bevor mittels multikriterieller genetischer Algorithmen der Entwurfsraum der Parallelisierungsalternativen exploriert wird. Schließlich kann eine spezifische Lösung der auf diese Weise hergeleiteten Pareto-Front auf Basis ihrer Bewertungsmetriken zur Implementierung durch einen Entwickler ausgewählt werden. Die vorliegende Arbeit schließt mit einer Fallstudie, welche die zuvor beschriebene Methode auf eine numerische Steuerungs-Firmware anwendet und dabei deren Potential für eine umfassende Unterstützung einer Firmware-Parallelisierung aufzeigt.
Spätestens mit der Erstauflage der deutschen Nachhaltigkeitsstrategie 2002 wurde die Notwendigkeit einer Reduzierung der Flächeninanspruchnahme politisch anerkannt. Die damit verbundene Einführung des „30-ha-Ziels“, definiert als eine Reduktion der täglichen Flächeninanspruchnahme im Bundesgebiet von 120 ha/Tag auf 30 ha/Tag im Jahr 2020, soll den negativen Auswirkungen wie z.B. Zersiedelung oder sozialer Segregation Einhalt gebieten. Trotz intensiver Bemühungen konnte jedoch keine deutliche Reduzierung der Flächeninanspruchnahme erreicht werden. 2007 betrug die tägliche Neuinanspruchnahme von Flächen immer noch 96 ha .
An diesem Punkt knüpft die Arbeit an und versucht mittels eines akteurszentrierten Ansatzes einen Erkenntnisgewinn zur Ursachenforschung der Flächeninanspruchnahme zu liefern. Ziel ist die Untersuchung der Raumrelevanz planerischer und politischer Entscheidungsprozesse vor dem Hintergrund einer nachhaltigen Siedlungsentwicklung und Flächeninanspruchnahme. Dabei erfolgt eine schwerpunktmäßige Betrachtung der Regional- und Bauleitplanung im Rahmen einer Flächennutzung durch Wohnen. Denn diese Akteure stellen nicht nur zentrale „Flächennutzungsentscheider“ dar, sondern sind auch Anknüpfungspunkt zahlreicher Handlungsstrategien/-maßnahmen. Die Arbeit fokussiert dabei die Entscheidungsfindung der Planung und der politischen Gremien bei der Aufstellung von Regional- und Flächennutzungsplänen und den ihr immanenten Entscheidungen, nämlich der Abwägung und dem Beschluss, sowie deren Wechselwirkungen untereinander. Die Fragestellung wird dabei anhand von Fallstudien in Städten, die in der Vergangenheit von Schrumpfungsprozessen betroffen waren, konkret die Städte Dresden und Leipzig, und in Regionen, welche mit einer wachsenden Bevölkerung konfrontiert sind, hier die Regionen München und Rhein-Neckar, eruiert. Hierzu kamen verschiedene Methoden zum Einsatz, in deren Zentrum die Anwendung des Analytical Hierarchy Process (AHP) und qualitativer Experteninterviews stehen.
Im Ergebnis kann ausgesagt werden, dass weniger raumstrukturelle Ausgangssituationen, als vielmehr kommunalspezifische Handlungsorientierungen das Maß einer Reduzierung der Flächeninanspruchnahme bestimmen. Um deren Beweggründe eruieren zu können, ist es sowohl auf regionaler als auch auf kommunaler Ebene wichtig, die Interaktionsbeziehungen zwischen planerischen und politischen Akteuren und den ihnen zugrunde liegenden Handlungsorientierungen zu beleuchten. Denn diese spezielle Inter-aktionsbeziehung spielt eine bedeutende Rolle zum Verständnis planerischer und politischer Entscheidungen vor dem Hintergrund des Flächensparziels, da das Thema Flächenverbrauch als ein fachliches und sehr komplexes Thema wahrgenommen wird, welches sich in seiner Gesamtheit den politischen Akteuren aufgrund deren begrenzter Zeit oftmals nicht erschließt.
Planerischen Entscheidungen können dabei immer flächensparende Bestrebungen konstatiert werden, politischen Entscheidungen eingeschränkt dadurch, ob es der Planung gelingt, das Flächensparziel der Politik nahe zu bringen, es nicht anderen Anliegen entgegensteht und ein dahingehendes Verhalten nicht zu Nachteilen im Konkurrenzkampf mit den anderen Kommunen führt. Jedoch kann auch aus den Ergebnissen abgeleitet werden, dass nach außen gelebtes Flächensparen oftmals nicht auf ein Bewusstseins des Wertes der Fläche per se zurückzuführen ist. Es hängt vielmehr davon ab, wie hoch der Problemdruck auf Basis alter Flächenausweisungen ist und inwieweit es sich als Nebenprodukt aus den planerischen und politischen Entscheidungen ergibt. Oftmals verhindern aber auch u.a. Eigentumsstrukturen und rechtliche Rahmenbedingungen, wie die bis dato noch kaum diskutierten Eingemeindungsverträge, dass eine Reduzierung der Flächeninanspruchnahme vollzogen wird. Resultat hieraus ist, dass es keinen allgemeingültigen Maßnahmen- oder Instrumentarienkatalog geben kann, um eine Flächeninanspruchnahme voranzutreiben. Vielmehr gilt es infolge der Analyse von Akteuren, Akteurskonstellationen und institutionellen Rahmenbedingungen diese entsprechend einzusetzen bzw. zu generieren.
Knowledge-based systems (KBS) face an ever-increasing interest in various disciplines and contexts. Yet, the former aim to construct the ’perfect intelligent software’ continuously shifts to user-centered, participative solutions. Such systems enable users to contribute their personal knowledge to the problem solving process for increased efficiency and an ameliorated user experience. More precisely, we define non-functional key requirements of participative KBS as: Transparency (encompassing KBS status mediation), configurability (user adaptability, degree of user control/exploration), quality of the KB and UI, and evolvability (enabling the KBS to grow mature with their users). Many of those requirements depend on the respective target users, thus calling for a more user-centered development. Often, also highly expertise domains are targeted — inducing highly complex KBs — which requires a more careful and considerate UI/interaction design. Still, current KBS engineering (KBSE) approaches mostly focus on knowledge acquisition (KA) This often leads to non-optimal, little reusable, and non/little evaluated KBS front-end solutions.
In this thesis we propose a more encompassing KBSE approach. Due to the strong mutual influences between KB and UI, we suggest a novel form of intertwined UI and KB development. We base the approach on three core components for encompassing KBSE:
(1) Extensible prototyping, a tailored form of evolutionary prototyping; this builds on mature UI prototypes and offers two extension steps for the anytime creation of core KBS prototypes (KB + core UI) and fully productive KBS (core KBS prototype + common framing functionality). (2) KBS UI patterns, that define reusable solutions for the core KBS UI/interaction; we provide a basic collection of such patterns in this work. (3) Suitable usability instruments for the assessment of the KBS artifacts. Therewith, we do not strive for ’yet another’ self-contained KBS engineering methodology. Rather, we motivate to extend existing approaches by the proposed key components. We demonstrate this based on an agile KBSE model.
For practical support, we introduce the tailored KBSE tool ProKEt. ProKEt offers a basic selection of KBS core UI patterns and corresponding configuration options out of the box; their further adaption/extension is possible on various levels of expertise. For practical usability support, ProKEt offers facilities for quantitative and qualitative data collection. ProKEt explicitly fosters the suggested, intertwined development of UI and KB. For seamlessly integrating KA activities, it provides extension points for two selected external KA tools: For KnowOF, a standard office based KA environment. And for KnowWE, a semantic wiki for collaborative KA. Therewith, ProKEt offers powerful support for encompassing, user-centered KBSE.
Finally, based on the approach and the tool, we also developed a novel KBS type: Clarification KBS as a mashup of consultation and justification KBS modules. Those denote a specifically suitable realization for participative KBS in highly expertise contexts and consequently require a specific design. In this thesis, apart from more common UI solutions, we particularly also introduce KBS UI patterns especially tailored towards Clarification KBS.
Context-specific Consistencies in Information Extraction: Rule-based and Probabilistic Approaches
(2015)
Large amounts of communication, documentation as well as knowledge and information are stored in textual documents. Most often, these texts like webpages, books, tweets or reports are only available in an unstructured representation since they are created and interpreted by humans. In order to take advantage of this huge amount of concealed information and to include it in analytic processes, it needs to be transformed into a structured representation. Information extraction considers exactly this task. It tries to identify well-defined entities and relations in unstructured data and especially in textual documents.
Interesting entities are often consistently structured within a certain context, especially in semi-structured texts. However, their actual composition varies and is possibly inconsistent among different contexts. Information extraction models stay behind their potential and return inferior results if they do not consider these consistencies during processing. This work presents a selection of practical and novel approaches for exploiting these context-specific consistencies in information extraction tasks. The approaches direct their attention not only to one technique, but are based on handcrafted rules as well as probabilistic models.
A new rule-based system called UIMA Ruta has been developed in order to provide optimal conditions for rule engineers. This system consists of a compact rule language with a high expressiveness and strong development support. Both elements facilitate rapid development of information extraction applications and improve the general engineering experience, which reduces the necessary efforts and costs when specifying rules.
The advantages and applicability of UIMA Ruta for exploiting context-specific consistencies are illustrated in three case studies. They utilize different engineering approaches for including the consistencies in the information extraction task. Either the recall is increased by finding additional entities with similar composition, or the precision is improved by filtering inconsistent entities. Furthermore, another case study highlights how transformation-based approaches are able to correct preliminary entities using the knowledge about the occurring consistencies.
The approaches of this work based on machine learning rely on Conditional Random Fields, popular probabilistic graphical models for sequence labeling. They take advantage of a consistency model, which is automatically induced during processing the document. The approach based on stacked graphical models utilizes the learnt descriptions as feature functions that have a static meaning for the model, but change their actual function for each document. The other two models extend the graph structure with additional factors dependent on the learnt model of consistency. They include feature functions for consistent and inconsistent entities as well as for additional positions that fulfill the consistencies.
The presented approaches are evaluated in three real-world domains: segmentation of scientific references, template extraction in curricula vitae, and identification and categorization of sections in clinical discharge letters. They are able to achieve remarkable results and provide an error reduction of up to 30% compared to usually applied techniques.
Lesen ist keine passive Rezeption schriftlichen Materials, sondern eine aktive, wechselseitige Beeinflussung von Text und Leser. Der Erwerb von Lesekompetenz ist daher ein komplexer und langwieriger Prozess, der nicht mit der Alphabetisierung in der Grundschule endet, sondern bis ins Erwachsenenalter hinein andauert.
In nationalen und internationalen Studien zeigten deutsche Jugendliche zum Teil gravierende Defizite im Hinblick auf die Lesekompetenz. Inzwischen wurden zwar zahlreiche Einflussfaktoren und Ansatzpunkte für Fördermaßnahmen identifizifiziert und Interventionen konzipiert. Um diese Maßnahmen jedoch gezielt und gewinnbringend einsetzen und evaluieren zu können, ist es erforderlich, den Leistungsstand der Schüler umfassend zu erheben. Bislang fehlten hierfür geeignete Diagnoseinstrumente für die mittleren und höheren Klassenstufen. Daher wurden im Projekt "LESEN - Lesen ermöglicht Sinnentnahme" zwei Lesetests für die Sekundarstufe entwickelt: LESEN 6-7 für die Klassenstufen sechs und sieben sowie LESEN 8-9 für die Klassenstufen acht und neun.
LESEN 6-7 und LESEN 8-9 sind zwei analog aufgebaute Lesetests, die vor allem auf die kognitiven Aspekte der Lesekompetenz, also das Leseverständnis, fokussieren. Beide Tests enthalten jeweils zwei Subtests: Basale Lesekompetenz (BLK) und Textverständnis (TV). Der Subtest BLK besteht aus einer Satzleseaufgabe und erfasst die Lesegeschwindigkeit und das Verständnis einfacher, kurzer Sätze. Der Subtest TV enthält einen expositorischen und einen narrativen Text mit geschlossenen Verständnisfragen, die die inhaltliche Verarbeitung prüfen. Damit orientiert sich der Aufbau der Tests am aktuellen Forschungsstand, demzufolge Leseverständnis sich aus basalen Prozessen und hierarchiehöheren Verständnisleistungen zusammensetzt. Bezüglich des Verständnisses werden in der Literatur verschiedene Verarbeitungsebenen beschrieben, die bei der Konstruktion des Subtests TV explizit Berücksichtigung fanden.
Methodisch orientierte sich die Konstruktion von LESEN 6-7 und LESEN 8-9 zunächst an der Klassischen Testtheorie (KTT). Während für den Subtest BLK darüber hinaus kein Testmodell nötig war, da die Anzahl der in der vorgegebenen Zeit gelesenen Sätze bereits eine metrische Variable darstellt, wurde dem Subtest TV das dichotome Rasch-Modell zugrunde gelegt. Bei Letzterem wurden daher zusätzlich entsprechende Rasch-Kennwerte für die Itemselektion herangezogen. Beide Tests wurden an einer großen Stichprobe, die jeweils Schüler mehrerer deutscher Bundesländer und verschiedener Schularten einschloss, normiert. Zudem wurden jeweils beide Subtests eingehend auf Reliabilität und Validität sowie weitere gängige Testgütekriterien geprüft. Der Subtest TV wurde darüber hinaus auf Rasch-Modell-Konformität untersucht.
Die Ergebnisse der empirischen Erprobung der beiden Tests fallen sehr zufriedenstellend aus. Die Normstichprobe umfasst 1.644 Schüler für LESEN 6-7 und 945 Schüler für LESEN 8-9. Sowohl die KTT- als auch die Rasch-Kennwerte für die Reliabilität liegen im mittelhohen bis hohen Bereich. Die inhaltliche Validität ergibt sich aus den stringent aus der Theorie abgeleiteten Iteminhalten. Die Konstruktvalidität wird durch größtenteils hohe bis sehr hohe Korrelationen mit konstruktnahen Skalen gestützt. Im Sinne konvergenter Validität korrelieren die Ergebniswerte von LESEN 6-7 und LESEN 8-9 außerdem höher mit konstruktnahen Außenkriterien (Lehrerurteil zur Lesekompetenz, Deutschnote) als mit konstruktfernen Außenkriterien (Gesamtnotenschnitt, Mathematiknote). Die niedrige bis nicht vorhandene Korrelation mit konstruktfernen Außenkriterien weist auf diskriminante Validität der Tests hin. Weiter sprechen die größtenteils erwartungskonformen Ergebnisse im Hinblick auf verschiedene aus der Theorie und empirischen Vorbefunden abgeleitete Hypothesen u. a. in Bezug auf Klassenstufen- und Schulartunterschiede für die Validität von LESEN 6-7 und LESEN 8-9. Die Ergebnisse der Rasch-Modell-Konformitätsprüfung für den Subtest TV sprechen für das Vorliegen von Itemhomogenität in beiden Tests, jedoch eher gegen das Vorliegen von Personenhomogenität.
Insgesamt erfüllen LESEN 6-7 und LESEN 8-9 gängige Testgütekriterien in zufriedenstellendem
Maße. Sie ermöglichen sowohl auf Gruppen- als auch auf Individualebene eine umfassende Erfassung des Leseverständnisses von Sekundarschülern sowie in allen vier Klassenstufen eine Differenzierung im gesamten Leistungsspektrum.
Die Entwicklung von Clustern ist in den vergangenen zwei Dekaden zu einem äußerst beliebten Ziel der regionalen Wirtschaftsförderung geworden. Dieser Trend wird seitens der Wissenschaft recht kritisch betrachtet. Sie befürchtet, dass die Clusterförderung den jeweiligen Kontext zu wenig beachtet und sich zudem auf wenige Instrumente beschränkt, ohne alle Anknüpfungspunkte, die ihr die Clustertheorie bietet, auszuschöpfen. Allerdings muss sich die Wissenschaft eingestehen, dass sie den Anschluss an die Förderung verloren hat und sich daher mit einer fundierten Beratung schwer tut.
Die vorliegende Arbeit hat das Ziel diese Wissenslücke zu verkleinern, indem sie Clusterplattformen untersucht, die häufig die zentralen Umsetzungsorganisationen der clusterorientierten Wirtschaftsförderung sind. Im Zentrum stehen dabei die Fragen, wie diese Plattformen arbeiten und welche Möglichkeiten und Begrenzungen sie haben, um eine den Clustertheorien entsprechende Förderung zu betreiben. Untersuchungsgegenstand sind die Clusterplattformen des bayerischen Förderprogramms Cluster-Offensive Bayern.
Als theoretische Grundlage zur Analyse der Clusterplattformen wurde der Neo-Institutionalismus gewählt. Dieser soziologischen Theorie zufolge werden die Handlungen von Organisationen durch die Akteure in ihrem Umfeld bestimmt, auf deren Legitimitätszuweisungen sie angewiesen sind. Für den vorliegenden Fall heißt das, dass sich die Clusterplattformen in ihren Handlungen an die Erwartungen der zu fördernden Unternehmen und der politischen Auftraggeber anpassen müssen. Das wird dazu führen, dass die Plattformen keine theoretisch optimale Förderung betreiben können. Die Frage ist schließlich, welche Elemente der Clustertheorien sie gut und welche sie weniger gut fördern können. Um das zu beantworten, werden die Erwartungen der einzelnen Akteure auf der Basis von qualitativen Experten Interviews identifiziert und ihre Auswirkungen auf ausgewählte Elemente der Clustertheorien untersucht und diskutiert.
Die Untersuchung zeigt, dass die Anpassungen der Clusterplattformen an die Erwartungen der Akteure in ihrem Umfeld in der Tat sehr stark sind, was generell zu einer sehr kontextspezifischen Förderung führt. Allerdings wird von Maßnahmen Abstand genommen, die den partikularen Erwartungen widersprechen, obwohl sie für den Gesamtcluster bedeutsam sein können. Andere Aspekte der Clustertheorien, die von den Akteuren allgemein als sehr bedeutsam angesehen werden, sind hingegen im Werkzeugkasten der Plattformen überrepräsentiert. Bei vielen weiteren Elementen beeinflussen jedoch ganz praktische Umstände die Handlungsmöglichkeiten der Clusterplattformen. Grundsätzlich schöpfen die Clusterplattformen ihre Möglichkeiten dennoch weitestgehend aus. Für eine umfassende clustertheoretisch orientierte Wirtschaftsförderung ist daher vor allem für die Einbeziehung von weiteren Akteuren oder Programmen zu plädieren, welche die Handlungsdefizite der Clusterplattformen ausgleichen können.
In many cases, problems, data, or information can be modeled as graphs. Graphs can be used as a tool for modeling in any case where connections between distinguishable objects occur. Any graph consists of a set of objects, called vertices, and a set of connections, called edges, such that any edge connects a pair of vertices. For example, a social network can be modeled by a graph by
transforming the users of the network into vertices and friendship relations between users into edges. Also physical networks like computer networks or transportation networks, for example, the metro network of a city, can be seen as graphs.
For making graphs and, thereby, the data that is modeled, well-understandable for users, we need a visualization. Graph drawing deals with algorithms for visualizing graphs. In this thesis, especially the use of crossings and curves is investigated for graph drawing problems under additional constraints. The constraints that occur in the problems investigated in this thesis especially restrict the positions of (a part of) the vertices; this is done either as a hard constraint or as an optimization criterion.