Refine
Has Fulltext
- yes (8)
Is part of the Bibliography
- yes (8)
Document Type
- Doctoral Thesis (8)
Keywords
- Algorithmus (8) (remove)
Data mining has proved its significance in various domains and applications. As an important subfield of the general data mining task, subgroup mining can be used, e.g., for marketing purposes in business domains, or for quality profiling and analysis in medical domains. The goal is to efficiently discover novel, potentially useful and ultimately interesting knowledge. However, in real-world situations these requirements often cannot be fulfilled, e.g., if the applied methods do not scale for large data sets, if too many results are presented to the user, or if many of the discovered patterns are already known to the user. This thesis proposes a combination of several techniques in order to cope with the sketched problems: We discuss automatic methods, including heuristic and exhaustive approaches, and especially present the novel SD-Map algorithm for exhaustive subgroup discovery that is fast and effective. For an interactive approach we describe techniques for subgroup introspection and analysis, and we present advanced visualization methods, e.g., the zoomtable that directly shows the most important parameters of a subgroup and that can be used for optimization and exploration. We also describe various visualizations for subgroup comparison and evaluation in order to support the user during these essential steps. Furthermore, we propose to include possibly available background knowledge that is easy to formalize into the mining process. We can utilize the knowledge in many ways: To focus the search process, to restrict the search space, and ultimately to increase the efficiency of the discovery method. We especially present background knowledge to be applied for filtering the elements of the problem domain, for constructing abstractions, for aggregating values of attributes, and for the post-processing of the discovered set of patterns. Finally, the techniques are combined into a knowledge-intensive process supporting both automatic and interactive methods for subgroup mining. The practical significance of the proposed approach strongly depends on the available tools. We introduce the VIKAMINE system as a highly-integrated environment for knowledge-intensive active subgroup mining. Also, we present an evaluation consisting of two parts: With respect to objective evaluation criteria, i.e., comparing the efficiency and the effectiveness of the subgroup discovery methods, we provide an experimental evaluation using generated data. For that task we present a novel data generator that allows a simple and intuitive specification of the data characteristics. The results of the experimental evaluation indicate that the novel SD-Map method outperforms the other described algorithms using data sets similar to the intended application concerning the efficiency, and also with respect to precision and recall for the heuristic methods. Subjective evaluation criteria include the user acceptance, the benefit of the approach, and the interestingness of the results. We present five case studies utilizing the presented techniques: The approach has been successfully implemented in medical and technical applications using real-world data sets. The method was very well accepted by the users that were able to discover novel, useful, and interesting knowledge.
Integrating neurobiological markers of depression: an fMRI-based pattern classification approach
(2010)
While depressive disorders are, to date, diagnosed based on behavioral symptoms and course of illness, the interest in neurobiological markers of psychiatric disorders has grown substantially in recent years. However, current classification approaches are mainly based on data from a single biomarker, making it difficult to predict diseases such as depression which are characterized by a complex pattern of symptoms. Accordingly, none of the previously investigated single biomarkers has shown sufficient predictive power for practical application. In this work, we therefore propose an algorithm which integrates neuroimaging data associated with multiple, symptom-related neural processes relevant in depression to improve classification accuracy. First, we identified the core-symptoms of depression from standard classification systems. Then, we designed and conducted three experimental paradigms probing psychological processes known to be related to these symptoms using functional Magnetic Resonance Imaging. In order to integrate the resulting 12 high-dimensional biomarkers, we developed a multi-source pattern recognition algorithm based on a combination of Gaussian Process Classifiers and decision trees. Applying this approach to a group of 30 healthy controls and 30 depressive in-patients who were on a variety of medications and displayed varying degrees of symptom-severity allowed for high-accuracy single-subject classification. Specifically, integrating biomarkers yielded an accuracy of 83% while the best of the 12 single biomarkers alone classified a significantly lower number of subjects (72%) correctly. Thus, integrated biomarker-based classification of a heterogeneous, real-life sample resulted in accuracy comparable to the highest ever achieved in previous single biomarker research. Furthermore, investigation of the final prediction model revealed that neural activation during the processing of neutral facial expressions, large rewards, and safety cues is most relevant for over-all classification. We conclude that combining brain activation related to the core-symptoms of depression using the multi-source pattern classification approach developed in this work substantially increases classification accuracy while providing a sparse relational biomarker-model for future prediction.
In unserem Alltag kommen wir heute ständig mit Systemen der Informations- und Kommunikationstechnik in Kontakt. Diese bestehen häufig aus mehreren interagierenden und kommunizierenden Komponenten, wie zum Beispiel nebenläufige Software zur effizienten Nutzung von Mehrkernprozessoren oder Sensornetzwerke. Systeme, die aus mehreren interagierenden und kommunizierenden Komponenten bestehen sind häufig komplex und dadurch sehr fehleranfällig. Daher ist es wichtig zuverlässige Methoden, die helfen die korrekte Funktionsweise solcher Systeme sicherzustellen, zu besitzen.
Im Rahmen dieser Doktorarbeit wurden neue Methoden zur Verbesserung der Verifizierbarkeit von asynchronen nebenläufigen Systemen durch Anwendung der symbolischen Modellprüfung mit binären Entscheidungsdiagrammen (BDDs) entwickelt. Ein asynchrones nebenläufiges System besteht aus mehreren Komponenten, von denen zu einem Zeitpunkt jeweils nur eine Komponente Transitionen ausführen kann. Die Modellprüfung ist eine Technik zur formalen Verifikation, bei der die Gültigkeit einer Menge von zu prüfenden Eigenschaften für eine gegebene Systembeschreibung automatisch durch Softwarewerkzeuge, die Modellprüfer genannt werden, entschieden wird. Das Hauptproblem der symbolischen Modellprüfung ist das Problem der Zustandsraumexplosion und es sind weitere Verbesserungen notwendig, um die symbolische Modellprüfung häufiger erfolgreich durchführen zu können.
Bei der BDD-basierten symbolischen Modellprüfung werden Mengen von Systemzuständen und Mengen von Transitionen jeweils durch BDDs repräsentiert. Zentrale Operationen bei ihr sind die Berechnung von Nachfolger- und Vorgängerzuständen von gegebenen Zustandsmengen, welche Bildberechnungen genannt werden. Um die Gültigkeit von Eigenschaften für eine gegebene Systembeschreibung zu überprüfen, werden wiederholt Bildberechnungen durchgeführt. Daher ist ihre effiziente Berechnung entscheidend für eine geringe Laufzeit und einen niedrigen Speicherbedarf der Modellprüfung. In einer Bildberechnung werden ein BDD zur Repräsentation einer Menge von Transitionen und ein BDD für eine Menge von Zuständen kombiniert, um eine Menge von Nachfolger- oder Vorgängerzuständen zu berechnen. Oft ist auch die Größe von BDDs zur Repräsentation der Transitionsrelation von Systemen entscheidend für die erfolgreiche Anwendbarkeit der Modellprüfung.
In der vorliegenden Arbeit werden neue Datenstrukturen zur Repräsentation der Transitionsrelation von asynchronen nebenläufigen Systemen bei der BDD-basierten symbolischen Modellprüfung vorgestellt. Zusätzlich werden neue Algorithmen zur Durchführung von Bildberechnungen präsentiert. Beides kann zu großen Reduktionen der Laufzeit und des Speicherbedarfs führen. Asynchrone nebenläufige Systeme besitzen häufig Symmetrien. Eine Technik zur Reduktion des Problems der Zustandsraumexplosion ist die Symmetriereduktion. In dieser Arbeit wird ebenfalls ein neuer effizienter Algorithmus zur Symmetriereduktion bei der symbolischen Modellprüfung mit BDDs aufgeführt.
Hintergrund:
Die tatsächliche Ankunftszeit von schwerverletzten oder kritisch kranken Patienten im Schockraum einer Klinik stimmt nicht immer mit der von der Rettungsleitstelle angekündigten Ankunftszeit überein. Im Rahmen einer retrospektiven Analyse an einem deutschen überregionalen Traumazentrum wurde untersucht, ob der dortige Alarmierungsalgorithmus geeignet ist, Zeitabweichungen in der Patientenankunft zu kompensieren.
Methode:
Die Datenanalyse erfolgte retrospektiv. Es wurde die Differenz zwischen angekündigter und tatsächlicher Eintreffzeit aller über das Schockraumtelefon angekündigten und im Schockraum aufgenommenen Patienten von September 2010 bis März 2011 ermittelt. Die Teamalarmierung erfolgte 10 Minuten vor angekündigter Patientenankunft.
Ergebnisse:
In die Untersuchung wurden 165 Patienten eingeschlossen. Bei 11% aller Patienten und bei 9% der primär über den Schockraum aufgenommenen Traumapatienten stimmten angekündigte und tatsächliche Ankunftszeit überein. In 24% aller Fälle lag die tatsächliche Ankunftszeit des Patienten vor der angekündigten Ankunftszeit. 3% des gesamten Patientenkollektives und 0% aus der Gruppe der schwer betroffenen Traumapatienten kamen vor der Teamversammlung im Schockraum an. Zu Wartezeiten des Teams von über 20 Minuten kam es in 9% aller Fälle.
Schlussfolgerung:
Bei einer Teamalarmierung 10 Minuten vor angekündigter Ankunftszeit kann eine vollständige Versammlung des Schockraumteams vor Ankunft des Patienten in 97% aller Fälle erreicht werden. Gleichzeitig resultieren akzeptable Wartezeiten für das Team.
Given points in the plane, connect them using minimum ink. Though the task seems simple, it turns out to be very time consuming. In fact, scientists believe that computers cannot efficiently solve it. So, do we have to resign? This book examines such NP-hard network-design problems, from connectivity problems in graphs to polygonal drawing problems on the plane. First, we observe why it is so hard to optimally solve these problems. Then, we go over to attack them anyway. We develop fast algorithms that find approximate solutions that are very close to the optimal ones. Hence, connecting points with slightly more ink is not hard.
Das hohe invasive Potential und die starke Resistenz gegen Radio-/Chemotherapie von Glioblastoma multiforme (GBM) Zellen machen sie zu dem tödlichsten Tumor ihrer Art. Es ist deshalb von großem Interesse die Grundlagen, welche der Migrationsfähigkeit und DNA Reparatur zu Grunde liegen, besser zu verstehen.
Im ersten Teil dieser Arbeit wurden zwei Algorithmen zur automatischen Analyse der Migration in der Einzelzellverfolgung und im Wundheilungsassay modifiziert. Die Auswertung der Daten konnte automatisch und somit schnell, effektiv und mit geringerem Arbeitsaufwand durchgeführt werden. Mit Hilfe dieser automatischen Algorithmen wurde die Migrationsfähigkeit von zwei GBM-Zelllinien (DK-MG und SNB19) untersucht. Zusätzlich wurde die konfokale Laserscanning- sowie die hochauflösende dSTORM-Fluoreszenzmikroskopie verwendet um die, der Zellbewegung zu Grunde liegende, Struktur des F Aktin und der fokalen Adhäsionskinase (FAK) aufzulösen und darzustellen. Unter Anwendung dieser genannten Methoden sind die Effekte des dualen PI3K/mTOR Inhibitors PI-103 alleine und in Kombination mit dem Hsp90 Inhibitor NVP AUY922 mit und ohne Bestrahlung auf die Bewegung untersucht worden. Es konnte festgestellt werden, dass sich beide Zelllinien deutlich in ihrem migratorischem Potential in vitro unterscheiden und zudem auch markante Unterschiede in ihrer Morphologie aufweisen. Die weniger invasiven DK MG-Zellen besitzen eine polarisierte Zellstruktur, wohingegen SNB19-Zellen sich durch multipolare ungerichtete Bewegung auszeichneten. Zudem wurde die Migration, durch PI3K/mTOR Inhibition mit PI-103 bei den DK-MG-Zellen (p53 wt, PTEN wt), sehr effektiv unterdrückt. Wohingegen sich die SNB19-Zellen (p53 mut, PTEN mut) resistent gegen diesen Inhibitor zeigten. Hsp90 Inhibition offenbarte in beiden Zelllinien einen starken inhibitorischen Effekt auf die Migration der Zellen sowie die Reorganisierung des F Aktinskelettes.
In der zweiten Hälfte dieser Arbeit wurde ein Augenmerk auf die DNA-DSB-Reparatur der GBM Zellen nach ionisierender Strahlung gelegt. Zunächst wurde eine automatische Analysesoftware „FocAn-3D“ entwickelt, mit dessen Hilfe die DNA Doppelstrangbruchreparaturkinetik untersucht werden sollte. Diese Software ermöglicht es die gesamten Zellkerne mit ihren γH2AX-Foci in 3D-cLSM-Aufnahmen zu untersuchen. Es konnte somit eine Verbesserung der Genauigkeit in der Auszählung der γH2AX-Foci erreicht werden, welche 2D beschränkter Software verwehrt bleibt. Mit FocAn-3D konnte der gesamte Verlauf der Induktions- und Abbauphase der γH2AX-Foci in DK MG- und SNB19-Zellen mit einem mathematischen Modell ausgewertet und dargestellt werden. Des Weiteren wurde die Nanometerstruktur von γH2AX- und pDNA-PKcs-Foci mittels hochauflösender dSTORM-Mikroskopie untersucht. Konventionelle Mikroskopiemethoden, begrenzt durch das Beugungslimit und einer Auflösung von ~200 nm, konnten die Nanometerstruktur (<100 nm) der Reparaturfoci bisher nicht darstellen. Mit Hilfe der beugungsunbegrenzten dSTORM-Mikroskopie war es möglich in DK MG- und SNB19-Zellen die Nanometerstruktur genannten Reparaturproteine in den Foci mit einer Auflösung von bis zu ~20 nm darzustellen. γH2AX-Foci zeigten sich als eine Verteilung aus einzelnen Untereinheiten („Nanofoci“) mit einem Durchmesser von ~45 nm. Dies lässt die Vermutung zu, dass es sich hier um die elementare Substruktur der Foci und somit der γH2AX enthaltenen Nukleosome handelt. DNA-PK-Foci wiesen hingegen eine diffusere Verteilung auf.
Die in dieser Arbeit ermittelten Unterschiede im Migrationsverhalten der Zellen rechtfertigen eine weitere präklinische Untersuchung der verwendeten Inhibitoren als potentielle Zelltherapeutika für die Behandlung von GBM. Zudem konnte sich dSTORM als machtvolles Hilfsmittel, sowohl zur Analyse der Migration zugrundeliegenden Zytoskelettstruktur und der Effekte der Hsp90 Inhibierung, als auch, der Nanostruktur der DNA-DSB-Reparaturfoci herausstellen. Es ist anzunehmen, dass beugungsunbegrenzte Mikroskopiemethoden sich als bedeutende Werkzeuge in der medizinischen und biologischen Erforschung der DNA-Reparaturmechanismen herausstellen werden. Das in dieser Arbeit entwickelte ImageJ Plugin „FocAn-3D“ bewies sich ebenfalls als ein vielversprechendes Werkzeug für die Analyse der Reparaturkinetik. Mit Hilfe von „FocAn-3D“ sollte es somit möglich sein u.a. den Einfluss gezielter Inhibition auf den zeitlichen Verlauf der Induktion und des Abbaus der DNA-Reparaturmaschinerie genauer zu studieren.
Constraining graph layouts - that is, restricting the placement of vertices and the routing of edges to obey certain constraints - is common practice in graph drawing.
In this book, we discuss algorithmic results on two different restriction types:
placing vertices on the outer face and on the integer grid.
For the first type, we look into the outer k-planar and outer k-quasi-planar graphs, as well as giving a linear-time algorithm to recognize full and closed outer k-planar graphs Monadic Second-order Logic.
For the second type, we consider the problem of transferring a given planar drawing onto the integer grid while perserving the original drawings topology;
we also generalize a variant of Cauchy's rigidity theorem for orthogonal polyhedra of genus 0 to those of arbitrary genus.
Graphs provide a key means to model relationships between entities.
They consist of vertices representing the entities,
and edges representing relationships between pairs of entities.
To make people conceive the structure of a graph,
it is almost inevitable to visualize the graph.
We call such a visualization a graph drawing.
Moreover, we have a straight-line graph drawing
if each vertex is represented as a point
(or a small geometric object, e.g., a rectangle)
and each edge is represented as a line segment between its two vertices.
A polyline is a very simple straight-line graph drawing,
where the vertices form a sequence according to which the vertices are connected by edges.
An example of a polyline in practice is a GPS trajectory.
The underlying road network, in turn, can be modeled as a graph.
This book addresses problems that arise
when working with straight-line graph drawings and polylines.
In particular, we study algorithms
for recognizing certain graphs representable with line segments,
for generating straight-line graph drawings,
and for abstracting polylines.
In the first part, we first examine,
how and in which time we can decide
whether a given graph is a stick graph,
that is, whether its vertices can be represented as
vertical and horizontal line segments on a diagonal line,
which intersect if and only if there is an edge between them.
We then consider the visual complexity of graphs.
Specifically, we investigate, for certain classes of graphs,
how many line segments are necessary for any straight-line graph drawing,
and whether three (or more) different slopes of the line segments
are sufficient to draw all edges.
Last, we study the question,
how to assign (ordered) colors to the vertices of a graph
with both directed and undirected edges
such that no neighboring vertices get the same color
and colors are ascending along directed edges.
Here, the special property of the considered graph is
that the vertices can be represented as intervals
that overlap if and only if there is an edge between them.
The latter problem is motivated by an application
in automated drawing of cable plans with vertical and horizontal line segments,
which we cover in the second part.
We describe an algorithm that
gets the abstract description of a cable plan as input,
and generates a drawing that takes into account
the special properties of these cable plans,
like plugs and groups of wires.
We then experimentally evaluate the quality of the resulting drawings.
In the third part, we study the problem of abstracting (or simplifying)
a single polyline and a bundle of polylines.
In this problem, the objective is to remove as many vertices as possible from the given polyline(s)
while keeping each resulting polyline sufficiently similar to its original course
(according to a given similarity measure).