Refine
Has Fulltext
- yes (21)
Is part of the Bibliography
- yes (21)
Year of publication
Document Type
- Doctoral Thesis (19)
- Master Thesis (2)
Keywords
- Data Mining (3)
- Maschinelles Lernen (3)
- Deep Learning (2)
- Information Extraction (2)
- Optical Character Recognition (2)
- ALS (1)
- Alter Druck (1)
- Anomalieerkennung (1)
- Arbeitsablaufplanung (1)
- Automatic Text Reconition (1)
Die nächtliche (24-stündige) Überwachung des intraokularen Drucks (IOD) bei stationären Glaukompatienten wird in Europa seit mehr als 100 Jahren eingesetzt, um Spitzenwerte zu erkennen, die während der regulären Sprechstundenzeiten übersehen werden. Daten, die diese Praxis unterstützen, fehlen, zum Teil weil es schwierig ist, manuell erstellte IOD-Kurven mit dem objektiven Verlauf des Glaukoms zu korrelieren. Um dieses Problem zu beheben, haben wir automatisierte IOD-Datenextraktionswerkzeuge eingesetzt und auf eine Korrelation mit einem fortschreitenden Verlust der retinalen Nervenfaserschicht auf der optischen Kohärenztomographie im Spektralbereich (SDOCT) getestet.
In dieser Arbeit wurde ein Kollektiv chronisch herzinsuffizienter Patienten aus der niedergelassenen kardiologischen Betreuung in Bayern analysiert und auf die Umsetzung der zum Zeitpunkt der HF-Bavaria Studie gültigen Leitlinien untersucht. Dabei wurde das Patientenkollektiv nach dem Geschlecht und zusätzlich auch nach den neu definierten Herzinsuffizienz-Klassen der aktuell gültigen Leitlinien eingeteilt, um Unterschiede und Gemeinsamkeiten innerhalb dieser Differenzierungen darstellen zu können und einen Vergleich zu den Studien der jüngeren Vergangenheit zu ermöglichen.
Die Patienten der HF-Bavaria Studie waren zu 65,9 % männlich (n = 3569) und zu 34,1 % weiblich (n = 1848). Die Frauen litten häufiger unter HFpEF, waren seit kürzerer Zeit herzinsuffizient und waren in der Vergangenheit seltener zur Therapieintensivierung oder Intervention hospitalisiert. Die Patientinnen berichteten dabei weniger häufig Komorbiditäten. So fanden sich bei den Frauen seltener KHK, Niereninsuffizienz oder Diabetes mellitus, hingegen häufiger Herzklappenerkrankungen und Vorhofflimmern. Weiterhin wurden die Patientinnen weniger häufig mit ACE-Hemmer, Betablocker und MRA, dagegen häufiger mit ARB und Digitalis behandelt.
Im Patientenkollektiv der HF-Bavaria Studie hatten 29,0 % eine HFrEF (n = 1581), 28,9 % eine HFmrEF (n = 1577) und 42,0 % eine HFpEF (n = 2291). Patienten mit HFrEF waren überwiegend männlich, zum größten Teil seit mehr als 5 Jahren herzinsuffizient und im Vergleich zu den anderen Herzinsuffizienz-Klassen häufiger in den NYHA-Stadien III und IV eingestuft. HFrEF Patienten hatten den größten Anteil an bereits erfolgten Interventionen und Device-Therapien und die durchschnittlich höchste Anzahl an Komorbiditäten. Das Komorbiditätenspektrum bei Patienten mit HFmrEF lag prozentual in den meisten Kategorien zwischen den beiden anderen Herzinsuffizienz-Klassen. Patienten mit HFpEF waren überThe ewiegend weiblich, wiesen vergleichsweise am häufigsten eine komorbide Hypertonie oder ein Vorhofflimmern auf, während eine KHK deutlich seltener vorlag, als es in den anderen Herzinsuffizienz-Klassen der Fall war.
Die Prüfung der leitliniengerechten Pharmakotherapie bei HFrEF-Patienten ergab eine insgesamt gleichwertige Verschreibungshäufigkeit im geschlechtsspezifischen Vergleich der nach NYHA-Stadium indizierten Medikamentenklassen und Kombinationstherapien. Lediglich im NYHA-Stadium III konnte gezeigt werden, dass Männer signifikant häufiger mit einem Betablocker therapiert wurden. Weiterhin zeigte sich, bis auf wenige Ausnahmen, eine auch im nationalen und internationalen Vergleich hohe prozentuale Einnahme der stadienabhängig indizierten Medikamente. Die Einnahmerate von MRAs war vergleichsweise noch geringer als zu erwarten wäre, jedoch konnte das begleitende Vorliegen relevanter Kontraindikationen nicht zuverlässig genug erfasst werden, um die tatsächliche Versorgungslücke zu quantifizieren.
Die Analyse der Pharmakotherapie von HFmrEF- und HFpEF-Patienten zeigte, trotz bisher fehlender wissenschaftlicher Erkenntnisse zur optimalen medikamentösen Therapie dieser Patientengruppen, sehr ähnliche Einnahmehäufigkeiten der verschiedenen Substanzklassen im Vergleich zu den HFrEF-Patienten.
Die Therapie mit Devices war im Patientenkollektiv der HF-Bavaria Studie vergleichsweise selten und dabei häufiger bei männlichen Patienten vorzufinden. Die Analyse der leitliniengetreuen Indikationen von ICDs, CRTs und CRT-ICDs zu den tatsächlich implantierten Devices ergab Hinweise auf eine Unterversorgung vermittels apparativer Therapiemöglichkeiten.
Die Auswertung der HF-Bavaria Studie bestätigte die von uns erwartete Heterogenität und Komplexität der herzinsuffizienten Patienten in der niedergelassenen kardiologischen Betreuung. In dieser Arbeit konnte gezeigt werden, dass bedeutsame Unterschiede im Hinblick auf das Profil, den Verlauf und die Therapie von männlichen und weiblichen herzinsuffizienten Patienten bestehen. Die Therapieempfehlungen der Leitlinien richten sich trotz dieser Unterschiede vorrangig nach der Herzinsuffizienz-Klasse der Patienten. Bisher existierten in den Leitlinien vorrangig Therapieempfehlungen für Patienten mit einer HFrEF (und LVEF <40 %). Im Patientenkollektiv fanden sich jedoch zu 71 % Patienten mit einer LVEF ≥40 %. Dies bedeutet, dass für den Großteil der Patienten in unserer Studie bisher keine evidenzbasierten Behandlungsalgorithmen existieren, insbesondere zur Pharmakotherapie. Künftig sollte die Forschung vermehrt auf diese Evidenzlücken eingehen und idealerweise eine personalisierte Therapie ermöglichen.
Abschließend lässt sich feststellen, dass die leitliniengerechte Therapie der herzinsuffizienten Patienten in der niedergelassenen kardiologischen Versorgung in Bayern eine im nationalen und internationalen Kontext fortgeschrittene Qualität besitzt. Dennoch wurden erwartungsgemäß Möglichkeiten zur Qualitätsverbesserung im vorliegenden Projekt identifiziert.
The importance of Clinical Data Warehouses (CDW) has increased significantly in recent years as they support or enable many applications such as clinical trials, data mining, and decision making.
CDWs integrate Electronic Health Records which still contain a large amount of text data, such as discharge letters or reports on diagnostic findings in addition to structured and coded data like ICD-codes of diagnoses.
Existing CDWs hardly support features to gain information covered in texts.
Information extraction methods offer a solution for this problem but they have a high and long development effort, which can only be carried out by computer scientists.
Moreover, such systems only exist for a few medical domains.
This paper presents a method empowering clinicians to extract information from texts on their own. Medical concepts can be extracted ad hoc from e.g. discharge letters, thus physicians can work promptly and autonomously. The proposed system achieves these improvements by efficient data storage, preprocessing, and with powerful query features. Negations in texts are recognized and automatically excluded, as well as the context of information is determined and undesired facts are filtered, such as historical events or references to other persons (family history).
Context-sensitive queries ensure the semantic integrity of the concepts to be extracted.
A new feature not available in other CDWs is to query numerical concepts in texts and even filter them (e.g. BMI > 25).
The retrieved values can be extracted and exported for further analysis.
This technique is implemented within the efficient architecture of the PaDaWaN CDW and evaluated with comprehensive and complex tests.
The results outperform similar approaches reported in the literature.
Ad hoc IE determines the results in a few (milli-) seconds and a user friendly GUI enables interactive working, allowing flexible adaptation of the extraction.
In addition, the applicability of this system is demonstrated in three real-world applications at the Würzburg University Hospital (UKW).
Several drug trend studies are replicated: Findings of five studies on high blood pressure, atrial fibrillation and chronic renal failure can be partially or completely confirmed in the UKW. Another case study evaluates the prevalence of heart failure in inpatient hospitals using an algorithm that extracts information with ad hoc IE from discharge letters and echocardiogram report (e.g. LVEF < 45 ) and other sources of the hospital information system.
This study reveals that the use of ICD codes leads to a significant underestimation (31%) of the true prevalence of heart failure.
The third case study evaluates the consistency of diagnoses by comparing structured ICD-10-coded diagnoses with the diagnoses described in the diagnostic section of the discharge letter.
These diagnoses are extracted from texts with ad hoc IE, using synonyms generated with a novel method.
The developed approach can extract diagnoses from the discharge letter with a high accuracy and furthermore it can prove the degree of consistency between the coded and reported diagnoses.
Von technischen Systemen wird in der heutigen Zeit erwartet, dass diese stets fehlerfrei funktionieren, um einen reibungslosen Ablauf des Alltags zu gewährleisten. Technische Systeme jedoch können Defekte aufweisen, die deren Funktionsweise einschränken oder zu deren Totalausfall führen können. Grundsätzlich zeigen sich Defekte durch eine Veränderung im Verhalten von einzelnen Komponenten. Diese Abweichungen vom Nominalverhalten nehmen dabei an Intensität zu, je näher die entsprechende Komponente an einem Totalausfall ist. Aus diesem Grund sollte das Fehlverhalten von Komponenten rechtzeitig erkannt werden, um permanenten Schaden zu verhindern. Von besonderer Bedeutung ist dies für die Luft- und Raumfahrt. Bei einem Satelliten kann keine Wartung seiner Komponenten durchgeführt werden, wenn er sich bereits im Orbit befindet. Der Defekt einer einzelnen Komponente, wie der Batterie der Energieversorgung, kann hierbei den Verlust der gesamten Mission bedeuten. Grundsätzlich lässt sich Fehlererkennung manuell durchführen, wie es im Satellitenbetrieb oft üblich ist. Hierfür muss ein menschlicher Experte, ein sogenannter Operator, das System überwachen. Diese Form der Überwachung ist allerdings stark von der Zeit, Verfügbarkeit und Expertise des Operators, der die Überwachung durchführt, abhängig. Ein anderer Ansatz ist die Verwendung eines dedizierten Diagnosesystems. Dieses kann das technische System permanent überwachen und selbstständig Diagnosen berechnen. Die Diagnosen können dann durch einen Experten eingesehen werden, der auf ihrer Basis Aktionen durchführen kann. Das in dieser Arbeit vorgestellte modellbasierte Diagnosesystem verwendet ein quantitatives Modell eines technischen Systems, das dessen Nominalverhalten beschreibt. Das beobachtete Verhalten des technischen Systems, gegeben durch Messwerte, wird mit seinem erwarteten Verhalten, gegeben durch simulierte Werte des Modells, verglichen und Diskrepanzen bestimmt. Jede Diskrepanz ist dabei ein Symptom. Diagnosen werden dadurch berechnet, dass zunächst zu jedem Symptom eine sogenannte Konfliktmenge berechnet wird. Dies ist eine Menge von Komponenten, sodass der Defekt einer dieser Komponenten das entsprechende Symptom erklären könnte. Mithilfe dieser Konfliktmengen werden sogenannte Treffermengen berechnet. Eine Treffermenge ist eine Menge von Komponenten, sodass der gleichzeitige Defekt aller Komponenten dieser Menge alle beobachteten Symptome erklären könnte. Jede minimale Treffermenge entspricht dabei einer Diagnose. Zur Berechnung dieser Mengen nutzt das Diagnosesystem ein Verfahren, bei dem zunächst abhängige Komponenten bestimmt werden und diese von symptombehafteten Komponenten belastet und von korrekt funktionierenden Komponenten entlastet werden. Für die einzelnen Komponenten werden Bewertungen auf Basis dieser Be- und Entlastungen berechnet und mit ihnen Diagnosen gestellt. Da das Diagnosesystem auf ausreichend genaue Modelle angewiesen ist und die manuelle Kalibrierung dieser Modelle mit erheblichem Aufwand verbunden ist, wurde ein Verfahren zur automatischen Kalibrierung entwickelt. Dieses verwendet einen Zyklischen Genetischen Algorithmus, um mithilfe von aufgezeichneten Werten der realen Komponenten Modellparameter zu bestimmen, sodass die Modelle die aufgezeichneten Daten möglichst gut reproduzieren können. Zur Evaluation der automatischen Kalibrierung wurden ein Testaufbau und verschiedene dynamische und manuell schwierig zu kalibrierende Komponenten des Qualifikationsmodells eines realen Nanosatelliten, dem SONATE-Nanosatelliten modelliert und kalibriert. Der Testaufbau bestand dabei aus einem Batteriepack, einem Laderegler, einem Tiefentladeschutz, einem Entladeregler, einem Stepper Motor HAT und einem Motor. Er wurde zusätzlich zur automatischen Kalibrierung unabhängig manuell kalibriert. Die automatisch kalibrierten Satellitenkomponenten waren ein Reaktionsrad, ein Entladeregler, Magnetspulen, bestehend aus einer Ferritkernspule und zwei Luftspulen, eine Abschlussleiterplatine und eine Batterie. Zur Evaluation des Diagnosesystems wurde die Energieversorgung des Qualifikationsmodells des SONATE-Nanosatelliten modelliert. Für die Batterien, die Entladeregler, die Magnetspulen und die Reaktionsräder wurden die vorher automatisch kalibrierten Modelle genutzt. Für das Modell der Energieversorgung wurden Fehler simuliert und diese diagnostiziert. Die Ergebnisse der Evaluation der automatischen Kalibrierung waren, dass die automatische Kalibrierung eine mit der manuellen Kalibrierung vergleichbare Genauigkeit für den Testaufbau lieferte und diese sogar leicht übertraf und dass die automatisch kalibrierten Satellitenkomponenten eine durchweg hohe Genauigkeit aufwiesen und damit für den Einsatz im Diagnosesystem geeignet waren. Die Ergebnisse der Evaluation des Diagnosesystems waren, dass die simulierten Fehler zuverlässig gefunden wurden und dass das Diagnosesystem in der Lage war die plausiblen Ursachen dieser Fehler zu diagnostizieren.
Serverless computing is an emerging cloud computing paradigm that offers a highlevel
application programming model with utilization-based billing. It enables the
deployment of cloud applications without managing the underlying resources or
worrying about other operational aspects. Function-as-a-Service (FaaS) platforms
implement serverless computing by allowing developers to execute code on-demand
in response to events with continuous scaling while having to pay only for the
time used with sub-second metering. Cloud providers have further introduced
many fully managed services for databases, messaging buses, and storage that also
implement a serverless computing model. Applications composed of these fully
managed services and FaaS functions are quickly gaining popularity in both industry
and in academia.
However, due to this rapid adoption, much information surrounding serverless
computing is inconsistent and often outdated as the serverless paradigm evolves.
This makes the performance engineering of serverless applications and platforms
challenging, as there are many open questions, such as: What types of applications
is serverless computing well suited for, and what are its limitations? How should
serverless applications be designed, configured, and implemented? Which design
decisions impact the performance properties of serverless platforms and how can
they be optimized? These and many other open questions can be traced back to an
inconsistent understanding of serverless applications and platforms, which could
present a major roadblock in the adoption of serverless computing.
In this thesis, we address the lack of performance knowledge surrounding serverless
applications and platforms from multiple angles: we conduct empirical studies
to further the understanding of serverless applications and platforms, we introduce
automated optimization methods that simplify the operation of serverless applications,
and we enable the analysis of design tradeoffs of serverless platforms by
extending white-box performance modeling.
Knowledge-based systems (KBS) face an ever-increasing interest in various disciplines and contexts. Yet, the former aim to construct the ’perfect intelligent software’ continuously shifts to user-centered, participative solutions. Such systems enable users to contribute their personal knowledge to the problem solving process for increased efficiency and an ameliorated user experience. More precisely, we define non-functional key requirements of participative KBS as: Transparency (encompassing KBS status mediation), configurability (user adaptability, degree of user control/exploration), quality of the KB and UI, and evolvability (enabling the KBS to grow mature with their users). Many of those requirements depend on the respective target users, thus calling for a more user-centered development. Often, also highly expertise domains are targeted — inducing highly complex KBs — which requires a more careful and considerate UI/interaction design. Still, current KBS engineering (KBSE) approaches mostly focus on knowledge acquisition (KA) This often leads to non-optimal, little reusable, and non/little evaluated KBS front-end solutions.
In this thesis we propose a more encompassing KBSE approach. Due to the strong mutual influences between KB and UI, we suggest a novel form of intertwined UI and KB development. We base the approach on three core components for encompassing KBSE:
(1) Extensible prototyping, a tailored form of evolutionary prototyping; this builds on mature UI prototypes and offers two extension steps for the anytime creation of core KBS prototypes (KB + core UI) and fully productive KBS (core KBS prototype + common framing functionality). (2) KBS UI patterns, that define reusable solutions for the core KBS UI/interaction; we provide a basic collection of such patterns in this work. (3) Suitable usability instruments for the assessment of the KBS artifacts. Therewith, we do not strive for ’yet another’ self-contained KBS engineering methodology. Rather, we motivate to extend existing approaches by the proposed key components. We demonstrate this based on an agile KBSE model.
For practical support, we introduce the tailored KBSE tool ProKEt. ProKEt offers a basic selection of KBS core UI patterns and corresponding configuration options out of the box; their further adaption/extension is possible on various levels of expertise. For practical usability support, ProKEt offers facilities for quantitative and qualitative data collection. ProKEt explicitly fosters the suggested, intertwined development of UI and KB. For seamlessly integrating KA activities, it provides extension points for two selected external KA tools: For KnowOF, a standard office based KA environment. And for KnowWE, a semantic wiki for collaborative KA. Therewith, ProKEt offers powerful support for encompassing, user-centered KBSE.
Finally, based on the approach and the tool, we also developed a novel KBS type: Clarification KBS as a mashup of consultation and justification KBS modules. Those denote a specifically suitable realization for participative KBS in highly expertise contexts and consequently require a specific design. In this thesis, apart from more common UI solutions, we particularly also introduce KBS UI patterns especially tailored towards Clarification KBS.
The success of semantic systems has been proven over the last years.
Nowadays, Linked Data is the driver for the rapid development of ever new intelligent systems.
Especially in enterprise environments semantic systems successfully support more and more business processes.
This is especially true for after sales service in the mechanical engineering domain.
Here, service technicians need effective access to relevant technical documentation in order to diagnose and solve problems and defects.
Therefore, the usage of semantic information retrieval systems has become the new system metaphor.
Unlike classical retrieval software Linked Enterprise Data graphs are exploited to grant targeted and problem-oriented access to relevant documents.
However, huge parts of legacy technical documents have not yet been integrated into Linked Enterprise Data graphs.
Additionally, a plethora of information models for the semantic representation of technical information exists.
The semantic maturity of these information models can hardly be measured.
This thesis motivates that there is an inherent need for a self-contained semantification approach for technical documents.
This work introduces a maturity model that allows to quickly assess existing documentation.
Additionally, the approach comprises an abstracting semantic representation for technical documents that is aligned to all major standard information models.
The semantic representation combines structural and rhetorical aspects to provide access to so called Core Documentation Entities.
A novel and holistic semantification process describes how technical documents in different legacy formats can be transformed to a semantic and linked representation.
The practical significance of the semantification approach depends on tools supporting its application.
This work presents an accompanying tool chain of semantification applications, especially the semantification framework CAPLAN that is a highly integrated development and runtime environment for semantification processes.
The complete semantification approach is evaluated in four real-life projects: in a spare part augmentation project, semantification projects for earth moving technology and harvesting technology, as well as an ontology population project for special purpose vehicles.
Three additional case studies underline the broad applicability of the presented ideas.
Bei Lernprozessen spielt das Anwenden der zu erlernenden Tätigkeit eine wichtige Rolle. Im Kontext der Ausbildung an Schulen und Hochschulen bedeutet dies, dass es wichtig ist, Schülern und Studierenden ausreichend viele Übungsmöglichkeiten anzubieten. Die von Lehrpersonal bei einer "Korrektur" erstellte Rückmeldung, auch Feedback genannt, ist jedoch teuer, da der zeitliche Aufwand je nach Art der Aufgabe beträchtlich ist.
Eine Lösung dieser Problematik stellen E-Learning-Systeme dar. Geeignete Systeme können nicht nur Lernstoff präsentieren, sondern auch Übungsaufgaben anbieten und nach deren Bearbeitung quasi unmittelbar entsprechendes Feedback generieren. Es ist jedoch im Allgemeinen nicht einfach, maschinelle Verfahren zu implementieren, die Bearbeitungen von Übungsaufgaben korrigieren und entsprechendes Feedback erstellen. Für einige Aufgabentypen, wie beispielsweise Multiple-Choice-Aufgaben, ist dies zwar trivial, doch sind diese vor allem dazu gut geeignet, sogenanntes Faktenwissen abzuprüfen. Das Einüben von Lernzielen im Bereich der Anwendung ist damit kaum möglich.
Die Behandlung dieser nach gängigen Taxonomien höheren kognitiven Lernziele erlauben sogenannte offene Aufgabentypen, deren Bearbeitung meist durch die Erstellung eines Freitexts in natürlicher Sprache erfolgt. Die Information bzw. das Wissen, das Lernende eingeben, liegt hier also in sogenannter „unstrukturierter“ Form vor. Dieses unstrukturierte Wissen ist maschinell nur schwer verwertbar, sodass sich Trainingssysteme, die Aufgaben dieser Art stellen und entsprechende Rückmeldung geben, bisher nicht durchgesetzt haben. Es existieren jedoch auch offene Aufgabentypen, bei denen Lernende das Wissen in strukturierter Form eingeben, so dass es maschinell leichter zu verwerten ist. Für Aufgaben dieser Art lassen sich somit Trainingssysteme erstellen, die eine gute Möglichkeit darstellen, Schülern und Studierenden auch für praxisnahe Anwendungen viele Übungsmöglichkeiten zur Verfügung zu stellen, ohne das Lehrpersonal zusätzlich zu belasten.
In dieser Arbeit wird beschrieben, wie bestimmte Eigenschaften von Aufgaben ausgenutzt werden, um entsprechende Trainingssysteme konzipieren und implementieren zu können. Es handelt sich dabei um Aufgaben, deren Lösungen strukturiert und maschinell interpretierbar sind.
Im Hauptteil der Arbeit werden vier Trainingssysteme bzw. deren Komponenten beschrieben und es wird von den Erfahrungen mit deren Einsatz in der Praxis berichtet: Eine Komponente des Trainingssystems „CaseTrain“ kann Feedback zu UML Klassendiagrammen erzeugen. Das neuartige Trainingssystem „WARP“ generiert zu UML Aktivitätsdiagrammen Feedback in mehreren Ebenen, u.a. indem es das durch Aktivitätsdiagramme definierte Verhalten von Robotern in virtuellen Umgebungen visualisiert. Mit „ÜPS“ steht ein Trainingssystem zur Verfügung, mit welchem die Eingabe von SQL-Anfragen eingeübt werden kann. Eine weitere in „CaseTrain“ implementierte Komponente für Bildmarkierungsaufgaben ermöglicht eine unmittelbare, automatische Bewertung entsprechender Aufgaben.
Die Systeme wurden im Zeitraum zwischen 2011 und 2014 an der Universität Würzburg in Vorlesungen mit bis zu 300 Studierenden eingesetzt und evaluiert. Die Evaluierung ergab eine hohe Nutzung und eine gute Bewertung der Studierenden der eingesetzten Konzepte, womit belegt wurde, dass elektronische Trainingssysteme für offene Aufgaben in der Praxis eingesetzt werden können.
Die vorliegende Arbeit ist in zwei Teile gegliedert, von denen der erste Teil den theoretischen Hintergrund und empirische Befunde zum Thema „Komplexes Problemlösen“ behandelt. Der zweite Teil beinhaltet Methodik und Ergebnisse der durchgeführten Untersuchung. Nach der Einleitung in Kapitel 1 werden in Kapitel 2 die „Grundkonzepte des Komplexen Problemlösens“ vorgestellt, wobei mit der Abgrenzung des Bereichs „Komplexes Problemlösen“ begonnen wird. Anschließend werden die Eigenschaften von komplexen Systemen und deren Anforderungen an Problemlöser beschrieben, wobei die Taxonomie1 von Dörner et al. (1994) zugrunde gelegt wird. In Kapitel 3 werden Modelle der Wissensrepräsentation und des Problemlösens vorgestellt. Dabei wird der Begriff der „Strategie“ diskutiert und im Zusammenhang mit verschiedenen allgemeinen Modellen des Problemlösens erläutert. Kapitel 4 behandelt das Konzept „Delegation“. Delegation wird in dieser Arbeit als Methode verwendet, um Versuchspersonen zur Formalisierung ihrer Strategien zu bewegen, wobei sie die Ausführung der Strategien gleichzeitig beobachten können. Es werden vor allem Befunde aus der Organisationspsychologie und Unternehmensführung berichtet und die Anwendung von Delegation in der Interaktion zwischen Mensch und künstlichem Agent erörtert. In Kapitel 5 werden Waldbrandsimulationen behandelt. Diese zählen zu den klassischen Simulationen, die zur Untersuchung von Komplexem Problemlösen verwendet werden. Zuerst wird auf computergestützte Simulation im Allgemeinen eingegangen, wobei Unterschiede zu traditionellen Untersuchungsmethoden angesprochen werden. Dabei wird auch die Bedeutung der Multiagentensimulation für die Komplexe Problemlöseforschung hervorgehoben. Anschließend wird Feuerverhalten und Feuerbekämpfung als Vorbild für Waldbrandsimulationen erläutert. Dadurch können sowohl Anhaltspunkte zur Beurteilung der Plausibilität als auch für die Implementierung einer Waldbrandsimulation gewonnen werden. Im Anschluss daran werden drei bekannte Beispiele für Waldbrandsimulationen vorgestellt, wobei auch auf domänen- bzw. simulationsspezifische Strategien eingegangen wird. In Kapitel 6 wird ein Überblick über verschiedene empirische Befunde aus dem Bereich des Komplexen Problemlösens gegeben. Diese betreffen sowohl Eigenschaften von komplexen Systemen als auch Merkmale des Problemlösers. In Kapitel 7 werden die wichtigsten Kritikpunkte und Probleme, mit denen die Komplexe Problemlöseforschung zu kämpfen hat, zusammengefasst. Die konkreten Fragestellungen der Untersuchung werden in Kapitel 8 vorgestellt, wobei Kapitel 9 und 10 erläutern, mit welcher Methodik diese Fragen untersucht werden. In diesem Zusammenhang wird auch die Simulationsumgebung SeSAm vorgestellt. Im folgenden Kapitel 11 wird auf die Eigenschaften der implementierten Waldbrandsimulation eingegangen. Kapitel 12 beschreibt den Aufbau und Ablauf der Untersuchung, mit der die Daten gewonnen werden, die in Kapitel 13 berichtet werden. Eine Diskussion der Befunde im Hinblick auf die Fragestellungen und ihre Bedeutung für die zukünftige Forschung erfolgt in Kapitel 14.
Das Potenzial der Wissensentdeckung in Daten wird häufig nicht ausgenutzt, was hauptsächlich auf Barrieren zwischen dem Entwicklerteam und dem Endnutzer des Data-Mining zurückzuführen ist. In dieser Arbeit wird ein transparenter Ansatz zum Beschreiben und Erklären von Daten für Entscheidungsträger vorgestellt. In Entscheidungsträger-zentrierten Aufgaben werden die Projektanforderungen definiert und die Ergebnisse zu einer Geschichte zusammengestellt. Eine Anforderung besteht dabei aus einem tabellarischen Bericht und ggf. Mustern in seinem Inhalt, jeweils verständlich für einen Entscheidungsträger. Die technischen Aufgaben bestehen aus einer Datenprüfung, der Integration der Daten in einem Data-Warehouse sowie dem Generieren von Berichten und dem Entdecken von Mustern wie in den Anforderungen beschrieben. Mehrere Data-Mining-Projekte können durch Wissensmanagement sowie eine geeignete Infrastruktur voneinander profitieren. Der Ansatz wurde in zwei Projekten unter Verwendung von ausschließlich Open-Source-Software angewendet.