TY - JOUR A1 - Schlegel, Jan A1 - Sauer, Markus T1 - Hochaufgelöste Visualisierung einzelner Moleküle auf ganzen Zellen JF - BIOspektrum N2 - Biological systems are dynamic and three-dimensional but many techniques allow only static and two-dimensional observation of cells. We used three-dimensional (3D) lattice light-sheet single-molecule localization microscopy (dSTORM) to investigate the complex interactions and distribution of single molecules in the plasma membrane of whole cells. Different receptor densities of the adhesion receptor CD56 at different parts of the cell highlight the importance and need of three-dimensional observation and analysis techniques. KW - Visualisierung KW - Moleküle KW - Zellen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232365 SN - 0947-0867 VL - 7 ER - TY - THES A1 - Schwartges, Nadine T1 - Dynamic Label Placement in Practice T1 - Beschriftungsplatzierung in interaktiven Karten in der Praxis N2 - The general map-labeling problem is as follows: given a set of geometric objects to be labeled, or features, in the plane, and for each feature a set of label positions, maximize the number of placed labels such that there is at most one label per feature and no two labels overlap. There are three types of features in a map: point, line, and area features. Unfortunately, one cannot expect to find efficient algorithms that solve the labeling problem optimally. Interactive maps are digital maps that only show a small part of the entire map whereas the user can manipulate the shown part, the view, by continuously panning, zooming, rotating, and tilting (that is, changing the perspective between a top and a bird view). An example for the application of interactive maps is in navigational devices. Interactive maps are challenging in that the labeling must be updated whenever labels leave the view and, while zooming, the label size must be constant on the screen (which either makes space for further labels or makes labels overlap when zooming in or out, respectively). These updates must be computed in real time, that is, the computation must be so fast that the user does not notice that we spend time on the computation. Additionally, labels must not jump or flicker, that is, labels must not suddenly change their positions or, while zooming out, a vanished label must not appear again. In this thesis, we present efficient algorithms that dynamically label point and line features in interactive maps. We try to label as many features as possible while we prohibit labels that overlap, jump, and flicker. We have implemented all our approaches and tested them on real-world data. We conclude that our algorithms are indeed real-time capable. N2 - Das allgemeine Beschriftungsproblem lautet wie folgt: Gegeben sei eine Menge von zu beschriftenden geometrischen Objekten (Referenzobjekte) in der Ebene und für jedes Referenzobjekt eine Menge von Beschriftungspositionen. Maximiere die Anzahl von gesetzten Beschriftungen, sodass jedes Referenzobjekt höchstens eine Beschriftung besitzt und keine zwei Beschriftungen überlappen. In Karten gibt es drei Arten von Referenzobjekten: Punkte, Linien und Gebiete. Leider können wir nicht davon ausgehen, dass es Algorithmen gibt, die das Beschriftungsproblem optimal und effizient, das heißt, mit kurzer Rechenzeit, lösen. Interaktive Karten sind digitale Karten wie sie zum Beispiel in Navigationsgeräten verwendet werden. Interaktive Karten zeigen nur einen Ausschnitt der gesamten Karte, wobei der Benutzer diesen Ausschnitt, den Sichtbereich, verändern kann: Der Benutzer kann den Sichtbereich verschieben, verkleinern und vergrößern (das heißt, heraus- und hineinzoomen), ihn rotieren und die Ansicht kippen, also zwischen Draufsicht und Vogelperspektive variieren. Diese spontanen Änderungen machen das Platzieren von Beschriftungen noch schwieriger. Sobald eine Beschriftung den Sichtbereich verlässt, sollte diese innerhalb des Sichtbereichs neu gesetzt werden. Beim Zoomen soll sich die Größe einer Beschriftung auf dem Bildschirm nicht ändern. Beim Herauszoomen müssen wir daher Beschriftungen löschen um Überlappungen zu verhindern. Beim Hineinzoomen entsteht Platz um weitere Beschriftungen zu platzieren. Diese Aktualisierungen müssen in Echtzeit durchgeführt werden, das heißt, sie müssen so schnell durchgeführt werden, dass der Benutzer nicht bemerkt, dass im Hintergrund neue Positionen berechnet werden. Eine weitere Anforderung interaktiver Karten ist, dass eine Beschriftung nicht springen oder flackern darf, das heißt, wenn eine Beschriftung ihre Position ändern muss, so soll sie sich kontinuierlich zu ihrer neuen Position bewegen, und, während der Benutzer hinauszoomt, darf eine gelöschte Beschriftung nicht wieder eingeblendet werden. In dieser Dissertation stellen wir effiziente Algorithmen vor, die Punkte und Linien dynamisch beschriften. Wir versuchen stets so viele Referenzobjekte wie möglich zu beschriften, wobei wir gleichzeitig fordern, dass die platzierten Beschriftungen weder springen, flackern, noch sich überlappen. Wir haben unsere Algorithmen implementiert und mit Hilfe von echten Kartendaten getestet. Tatsächlich sind unsere Algorithmen echtzeitfähig. KW - Computerkartografie KW - Digitale Karte KW - automated map labeling KW - street labeling KW - point labeling KW - visualization KW - interactive maps KW - automatische Beschriftungsplatzierung KW - Beschriftung von Straßen KW - Punktbeschriftungen KW - Visualisierung KW - Interaktive Karten KW - Beschriftung KW - Visualisierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115003 ER - TY - INPR A1 - Nassourou, Mohamadou T1 - Towards a Knowledge-Based Learning System for The Quranic Text N2 - In this research, an attempt to create a knowledge-based learning system for the Quranic text has been performed. The knowledge base is made up of the Quranic text along with detailed information about each chapter and verse, and some rules. The system offers the possibility to study the Quran through web-based interfaces, implementing novel visualization techniques for browsing, querying, consulting, and testing the acquired knowledge. Additionally the system possesses knowledge acquisition facilities for maintaining the knowledge base. KW - Wissensbanksystem KW - Wissensmanagement KW - Text Mining KW - Visualisierung KW - Koran KW - Knowledge-based System KW - Knowledge Management System KW - Text Mining KW - Visualization KW - Quran Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70003 ER - TY - JOUR A1 - Schmid, Benjamin A1 - Schindelin, Johannes A1 - Cardona, Albert A1 - Longair, Martin A1 - Heisenberg, Martin T1 - A high-level 3D visualization API for Java and ImageJ N2 - Background: Current imaging methods such as Magnetic Resonance Imaging (MRI), Confocal microscopy, Electron Microscopy (EM) or Selective Plane Illumination Microscopy (SPIM) yield three-dimensional (3D) data sets in need of appropriate computational methods for their analysis. The reconstruction, segmentation and registration are best approached from the 3D representation of the data set. Results: Here we present a platform-independent framework based on Java and Java 3D for accelerated rendering of biological images. Our framework is seamlessly integrated into ImageJ, a free image processing package with a vast collection of community-developed biological image analysis tools. Our framework enriches the ImageJ software libraries with methods that greatly reduce the complexity of developing image analysis tools in an interactive 3D visualization environment. In particular, we provide high-level access to volume rendering, volume editing, surface extraction, and image annotation. The ability to rely on a library that removes the low-level details enables concentrating software development efforts on the algorithm implementation parts. Conclusions: Our framework enables biomedical image software development to be built with 3D visualization capabilities with very little effort. We offer the source code and convenient binary packages along with extensive documentation at http://3dviewer.neurofly.de. KW - Visualisierung KW - Java 3D KW - ImageJ KW - framework Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67851 ER - TY - INPR A1 - Nassourou, Mohamadou T1 - Philosophical and Computational Approaches for Estimating and Visualizing Months of Revelations of Quranic Chapters N2 - The question of why the Quran structure does not follow its chronology of revelation is a recurring one. Some Islamic scholars such as [1] have answered the question using hadiths, as well as other philosophical reasons based on internal evidences of the Quran itself. Unfortunately till today many are still wondering about this issue. Muslims believe that the Quran is a summary and a copy of the content of a preserved tablet called Lawhul-Mahfuz located in the heaven. Logically speaking, this suggests that the arrangement of the verses and chapters is expected to be similar to that of the Lawhul-Mahfuz. As for the arrangement of the verses in each chapter, there is unanimity that it was carried out by the Prophet himself under the guidance of Angel Gabriel with the recommendation of God. But concerning the ordering of the chapters, there are reports about some divergences [3] among the Prophet’s companions as to which chapter should precede which one. This paper argues that Quranic chapters might have been arranged according to months and seasons of revelation. In fact, based on some verses of the Quran, it is defendable that the Lawhul-Mahfuz itself is understood to have been structured in terms of the months of the year. In this study, philosophical and mathematical arguments for computing chapters’ months of revelation are discussed, and the result is displayed on an interactive scatter plot. KW - Text Mining KW - Visualisierung KW - Koran KW - Text mining KW - Visualization KW - Chronology of revelation KW - Chapters arrangement KW - Quran KW - Lawhul-Mahfuz Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-65784 ER - TY - INPR A1 - Nassourou, Mohamadou T1 - Assisting Analysis and Understanding of Quran Search Results with Interactive Scatter Plots and Tables N2 - The Quran is the holy book of Islam consisting of 6236 verses divided into 114 chapters called suras. Many verses are similar and even identical. Searching for similar texts (e.g verses) could return thousands of verses, that when displayed completely or partly as textual list would make analysis and understanding difficult and confusing. Moreover it would be visually impossible to instantly figure out the overall distribution of the retrieved verses in the Quran. As consequence reading and analyzing the verses would be tedious and unintuitive. In this study a combination of interactive scatter plots and tables has been developed to assist analysis and understanding of the search result. Retrieved verses are clustered by chapters, and a weight is assigned to each cluster according to number of verses it contains, so that users could visually identify most relevant areas, and figure out the places of revelation of the verses. Users visualize the complete result and can select a region of the plot to zoom in, click on a marker to display a table containing verses with English translation side by side. KW - Text Mining KW - Visualisierung KW - Koran KW - Information Visualization KW - Visual Text Mining KW - Scatter Plot KW - Quran Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-55840 ER - TY - THES A1 - Wawrowsky, Kolja Alexander T1 - Analysis and Visualization in Multidimensional Microscopy T1 - Analyse und Visualisierung in der multidimensionalen Mikroskopie N2 - The live sciences currently undergo a paradigm shift to computer aided discoveries. Discoveries in the live sciences were historically made by either direct observation or as a result of chemical assays. Today we see a growing shift toward computer aided analysis and visualization. This gradual process happens in microscopy. Multidimensional laser scanning microscopy can acquire very complex multichannel data from fixed or live specimen. New probes such as visible fluorescent proteins let us observe the expression of genes and track protein localization. Ion sensitive dyes change intensity with the concentration of ions in the cell. The laser scanning confocal allows us to record these processes in three dimensions over time. This work demonstrates the application of software analysis to multidimensional microscopy data. We introduce methods for volume investigation, ion flux analysis and molecular modeling. The visualization methods are based on a multidimensional data model to accommodate complex datasets. The software uses vector processing and multiple processors to accelerate volume rendering and achieve interactive rendering. The algorithms are based on human visual perception and allow the observer a wide range of mixed render modes. The software was used to reconstruct the pituitary development in zebrafish and observe the degeneration of neurons after injury in a mouse model. Calicum indicator dyes have long been used to study calcium fluxes. We optimized the imaging method to minimize impact on the cell. Live cells were imaged continuously for 45 minutes and subjected to increasing does of a drug. We correlated the amplitude of calcium oscillations to increasing doses of a drug and obtain single cell dose response curves. Because this method is very sensitive and measures single cell responses it has potential in drug discovery and characterization. Microtubules form a dynamic cytoskeleton, which is responsible for cell shape, intracellular transport and has an integral role in mitosis. A hallmark of microtubule organization is lateral interactions. Microtubules are bundles by proteins into dense structures. To estimate the contribution of this bundling process, we created a fractal model of microtubule organization. This model demonstrates that morphology of complex microtubule arrays can be explained by bundling alone. In summary we showed that advances in software for visualization, data analysis and modeling lead to new discoveries. N2 - Die biologische Forschung befindet sich in einem Paradigmenwandel, in dem Endeckungen immer mehr von Computeranalyse ermöglicht werden. Entdeckungen in der biologischen Forschung wurden historisch gesehen durch direkte Beobachtung and mit Hilfe chemischer Analysemethoden gemacht. Heute sehen wir einen wachsenden Trend zur computerunterstützten Analyse und Visualisierung. Dieser graduelle Umschwung spielt sich auch in der Mikroskopie ab. Multidimensionale Laser Scanning Mikroskopie kann sehr komplexe Multikanalbilder von fixierten oder lebenden Präparaten aufnehmen. Neue Methoden (wie z.B. fluoreszierende Proteine) erlauben es, Genexpression und Proteinlokalisierung direkt sichtbar zu machen. Ionensensitive Farbstoffe ändern ihre Helligkeit mit der Konzentration der Ionen in der Zelle. Die konfokale Mikroskopie erlaubt es, diese Änderungen dreidimensional über die Zeit aufzunehmen. Die hier vorgestellte Arbeit demonstriert die Anwendung speziell entwickelter Software für die Analyse multidimensionaler Daten. Die hierbei entwickelten Methoden wurden für Volumendarstellung, Ionenfluxanalyse und zur molekularen Modellierung eingesetzt. Die Visualisierungsmethoden basieren auf einem multidimensionalen Datenmodel, um auch komplexe Daten verarbeiten zu können. Die Software benutzt Vektorverarbeitung und Multiprozessorunterstützung um Volumendarstellung schneller und interaktiv zu machen. Die Algorithmen beruhen auf Erkenntnissen der Wahrnehmungsforschung und erlauben es dem Anwender, eine Reihe von verschiedenen Darstellungsmodi zu kombinieren. Die Software wurde erstmals verwendet, um einerseits die Entwicklung der Hypophyse im Zebrafisch zu rekonstruieren, und andererseits die Degenerierung von Neuronen im Mausmodell bildlich zu verfolgen. Kalziumfarbstoffe wurden schon länger zum Studium von Kalziumoszillationen in Zellen eingesetzt. Wir optimierten die Bildaufnahmemethode um Schädigungen der Zelle zu minimieren. Zellen wurden kontinuierlich in 45 Minuten Zeitintervallen aufgenommen und dabei wachsenden Dosen der zu untersuchenden Substanz ausgesetzt. Durch Korrelation von Dosis und Oszillationsamplitude konnten pharmakologische Wirkungskurven für jede einzelne Zelle ermittelt werden. Diese Methode hat wegen der hohen Sensitivität und Auflösung bis zur einzelnen Zelle Potential für pharmakologische Untersuchungen. Mikrotubuli formen ein dynamisches Zytoskelett, das für Zellform und intrazellularen Transport zuständig ist und eine integrale Rolle bei der Mitose spielt. Eine besondere Eigenschaft der Mikrotubuli ist die laterale Interaktion. Mikrotubuli werden von Motorproteinen zu dichten Strukturen gebündelt. Um den möglichen Einfluß dieses Vorgangs auf die Organisation der Mikotubuli zu testen, wurde ein fraktales Model erstellt. Dieses Modell demonstriert, daß die komplexe Organisation der Mikrotubuli in einigen Fällen allein mit dem Bündelungsprozess erklärt werden kann. Zusammenfassend konnte in dieser Arbeit demonstriert werden, daß der Einsatz speziell entwickelter Software für Visualisierung, Datenanalyse und Modellierung zu neuen wissenschaftlichen Erkenntnissen führen kann. KW - Konfokale Mikroskopie KW - Laser-Rastermikroskopie KW - Leica-Mikroskopie und -Systeme GmbH KW - Mikroskopie KW - Visualisierung KW - Bildverarbeitung KW - Mikrotubuli KW - Visualization KW - Image Processing KW - Microtubules Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-23867 ER - TY - THES A1 - Atzmüller, Martin T1 - Knowledge-Intensive Subgroup Mining - Techniques for Automatic and Interactive Discovery T1 - Wissensintensive Subgruppenentdeckung – Automatische und Interaktive Entdeckungsmethoden N2 - Data mining has proved its significance in various domains and applications. As an important subfield of the general data mining task, subgroup mining can be used, e.g., for marketing purposes in business domains, or for quality profiling and analysis in medical domains. The goal is to efficiently discover novel, potentially useful and ultimately interesting knowledge. However, in real-world situations these requirements often cannot be fulfilled, e.g., if the applied methods do not scale for large data sets, if too many results are presented to the user, or if many of the discovered patterns are already known to the user. This thesis proposes a combination of several techniques in order to cope with the sketched problems: We discuss automatic methods, including heuristic and exhaustive approaches, and especially present the novel SD-Map algorithm for exhaustive subgroup discovery that is fast and effective. For an interactive approach we describe techniques for subgroup introspection and analysis, and we present advanced visualization methods, e.g., the zoomtable that directly shows the most important parameters of a subgroup and that can be used for optimization and exploration. We also describe various visualizations for subgroup comparison and evaluation in order to support the user during these essential steps. Furthermore, we propose to include possibly available background knowledge that is easy to formalize into the mining process. We can utilize the knowledge in many ways: To focus the search process, to restrict the search space, and ultimately to increase the efficiency of the discovery method. We especially present background knowledge to be applied for filtering the elements of the problem domain, for constructing abstractions, for aggregating values of attributes, and for the post-processing of the discovered set of patterns. Finally, the techniques are combined into a knowledge-intensive process supporting both automatic and interactive methods for subgroup mining. The practical significance of the proposed approach strongly depends on the available tools. We introduce the VIKAMINE system as a highly-integrated environment for knowledge-intensive active subgroup mining. Also, we present an evaluation consisting of two parts: With respect to objective evaluation criteria, i.e., comparing the efficiency and the effectiveness of the subgroup discovery methods, we provide an experimental evaluation using generated data. For that task we present a novel data generator that allows a simple and intuitive specification of the data characteristics. The results of the experimental evaluation indicate that the novel SD-Map method outperforms the other described algorithms using data sets similar to the intended application concerning the efficiency, and also with respect to precision and recall for the heuristic methods. Subjective evaluation criteria include the user acceptance, the benefit of the approach, and the interestingness of the results. We present five case studies utilizing the presented techniques: The approach has been successfully implemented in medical and technical applications using real-world data sets. The method was very well accepted by the users that were able to discover novel, useful, and interesting knowledge. N2 - Data Mining wird mit großem Erfolg in vielen Domänen angewandt. Subgruppenentdeckung als wichtiges Teilgebiet des Data Mining kann zum Beispiel gut im Marketing, oder zur Qualitätskontrolle und Analyse in medizinischen Domänen eingesetzt werden. Das allgemeine Ziel besteht darin, potentiell nützliches and letztendlich interessantes Wissen zu entdecken. Jedoch können diese Anforderungen im praktischen Einsatz oft nicht erfüllt werden, etwa falls die eingesetzten Methoden eine schlechte Skalierbarkeit für größere Datensätze aufweisen, falls dem Benutzer zu viele Ergebnisse präsentiert werden, oder falls der Anwender viele der gefundenen Subgruppen-Muster schon kennt. Diese Arbeit stellt eine Kombination von automatischen und interaktiven Techniken vor, um mit den genannten Problemen besser umgehen zu können: Es werden automatische heuristische und vollständige Subgruppenentdeckungs-Verfahren diskutiert, und insbesondere der neuartige SD-Map Algorithmus zur vollständigen Subgruppenentdeckung vorgestellt der sowohl schnell als auch effektiv ist. Bezüglich der interaktiven Techniken werden Methoden zur Subgruppen-Introspektion und Analyse, und fortgeschrittene Visualisierungstechniken vorgestellt, beispielsweise die Zoomtable, die die für die Subgruppenentdeckung wichtigsten Parameter direkt visualisiert und zur Optimierung und Exploration eingesetzt werden kann. Zusätzlich werden verschiedene Visualisierungen zum Vergleich und zur Evaluation von Subgruppen beschrieben um den Benutzer bei diesen essentiellen Schritten zu unterstützen. Weiterhin wird leicht zu formalisierendes Hintergrundwissen vorgestellt, das im Subgruppenentdeckungsprozess in vielfältiger Weise eingesetzt werden kann: Um den Entdeckungsprozess zu fokussieren, den Suchraum einzuschränken, und letztendlich die Effizienz der Entdeckungsmethode zu erhöhen. Insbesondere wird Hintergrundwissen eingeführt, um die Elemente der Anwendungsdomäne zu filtern, um geeignete Abstraktionen zu definieren, Werte zusammenzufassen, und die gefundenen Subgruppenmuster nachzubearbeiten. Schließlich werden diese Techniken in einen wissensintensiven Prozess integriert, der sowohl automatische als auch interaktive Methoden zur Subgruppenentdeckung einschließt. Die praktische Bedeutung des vorgestellten Ansatzes hängt stark von den verfügbaren Werkzeugen ab. Dazu wird das VIKAMINE System als hochintegrierte Umgebung für die wissensintensive aktive Subgruppenentdeckung präsentiert. Die Evaluation des Ansatzes besteht aus zwei Teilen: Hinsichtlich einer Evaluation von Effizienz und Effektivität der Verfahren wird eine experimentelle Evaluation mit synthetischen Daten vorgestellt. Für diesen Zweck wird ein neuartiger in der Arbeit entwickelter Datengenerator angewandt, der eine einfache und intuitive Spezifikation der Datencharakteristiken erlaubt. Für die Evaluation des Ansatzes wurden Daten erzeugt, die ähnliche Charakteristiken aufweisen wie die Daten des angestrebten Einsatzbereichs. Die Ergebnisse der Evaluation zeigen, dass der neuartige SD-Map Algorithmus den anderen in der Arbeit beschriebenen Standard-Algorithmen überlegen ist. Sowohl hinsichtlich der Effizienz, als auch von Precision/Recall bezogen auf die heuristischen Algorithmen bietet SD-Map deutliche Vorteile. Subjektive Evaluationskriterien sind durch die Benutzerakzeptanz, den Nutzen des Ansatzes, und die Interessantheit der Ergebnisse gegeben. Es werden fünf Fallstudien für den Einsatz der vorgestellten Techniken beschrieben: Der Ansatz wurde in medizinischen und technischen Anwendungen mit realen Daten eingesetzt. Dabei wurde er von den Benutzern sehr gut angenommen, und im praktischen Einsatz konnte neuartiges, nützliches, und interessantes Wissen entdeckt werden. KW - Data Mining KW - Algorithmus KW - Visualisierung KW - Subgruppenentdeckung KW - Hintergrundwissen KW - Wissensendeckung KW - Data Mining KW - Visualisierung KW - Subgroup Mining KW - Background Knowledge KW - Knowledge Discovery KW - Data Mining KW - Visualization Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-21004 ER -