@article{SchulzeTillichDandekaretal.2013, author = {Schulze, Katja and Tillich, Ulrich M. and Dandekar, Thomas and Frohme, Marcus}, title = {PlanktoVision - an automated analysis system for the identification of phytoplankton}, series = {BMC Bioinformatics}, journal = {BMC Bioinformatics}, doi = {10.1186/1471-2105-14-115}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-96395}, year = {2013}, abstract = {Background Phytoplankton communities are often used as a marker for the determination of fresh water quality. The routine analysis, however, is very time consuming and expensive as it is carried out manually by trained personnel. The goal of this work is to develop a system for an automated analysis. Results A novel open source system for the automated recognition of phytoplankton by the use of microscopy and image analysis was developed. It integrates the segmentation of the organisms from the background, the calculation of a large range of features, and a neural network for the classification of imaged organisms into different groups of plankton taxa. The analysis of samples containing 10 different taxa showed an average recognition rate of 94.7\% and an average error rate of 5.5\%. The presented system has a flexible framework which easily allows expanding it to include additional taxa in the future. Conclusions The implemented automated microscopy and the new open source image analysis system - PlanktoVision - showed classification results that were comparable or better than existing systems and the exclusion of non-plankton particles could be greatly improved. The software package is published as free software and is available to anyone to help make the analysis of water quality more reproducible and cost effective.}, language = {en} } @phdthesis{Schulze2014, author = {Schulze, Katja}, title = {Automatisierte Klassifizierung und Viabilit{\"a}tsanalyse von Phytoplankton}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-107174}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Zentrales Ziel dieser Arbeit war es, Methoden der Mikroskopie, Bildverarbeitung und Bilderkennung f{\"u}r die Charakterisierungen verschiedener Phyotplankter zu nutzen, um deren Analyse zu verbessern und zu vereinfachen. Der erste Schwerpunkt der Arbeit lag auf der Analyse von Phytoplanktongemeinschaften, die im Rahmen der {\"U}berpr{\"u}fung der S{\"u}ßwasserqualit{\"a}t als Marker dienen. Die konventionelle Analyse ist dabei sehr aufwendig, da diese noch immer vollst{\"a}ndig von Hand durchgef{\"u}hrt wird und hierf{\"u}r speziell ausgebildetes Personal eingesetzt werden muss. Ziel war es, ein System zur automatischen Erkennung aufzubauen, um die Analyse vereinfachen zu k{\"o}nnen. Mit Hilfe von automatischer Mikroskopie war es m{\"o}glich Plankter unterschiedlicher Ausdehnung durch die Integration mehrerer Sch{\"a}rfeebenen besser in einem Bild aufzunehmen. Weiterhin wurden verschiedene Fluoreszenzeigenschaften in die Analyse integriert. Mit einem f{\"u}r ImageJ erstellten Plugin k{\"o}nnen Organismen vom Hintergrund der Aufnahmen abgetrennt und eine Vielzahl von Merkmalen berechnet werden. {\"U}ber das Training von neuralen Netzen wird die Unterscheidung von verschieden Gruppen von Planktontaxa m{\"o}glich. Zudem k{\"o}nnen weitere Taxa einfach in die Analyse integriert und die Erkennung erweitert werden. Die erste Analyse von Mischproben, bestehend aus 10 verschiedenen Taxa, zeigte dabei eine durchschnittliche Erkennungsrate von 94.7\% und eine durchschnittliche Falsch-Positiv Rate von 5.5\%. Im Vergleich mit bestehenden Systemen konnte die Erkennungsrate verbessert und die Falsch Positiv Rate deutlich gesenkt werde. Bei einer Erweiterung des Datensatzes auf 22 Taxa wurde darauf geachtet, Arten zu verwenden, die verschiedene Stadien in ihrem Wachstum durchlaufen oder h{\"o}here {\"A}hnlichkeiten zu den bereits vorhandenen Arten aufweisen, um evtl. Schwachstellen des Systemes erkennen zu k{\"o}nnen. Hier ergab sich eine gute Erkennungsrate (86.8\%), bei der der Ausschluss von nicht-planktonischen Partikeln (11.9\%) weiterhin verbessert war. Der Vergleich mit weiteren Klassifikationsverfahren zeigte, dass neuronale Netze anderen Verfahren bei dieser Problemstellung {\"u}berlegen sind. {\"A}hnlich gute Klassifikationsraten konnten durch Support Vektor Maschinen erzielt werden. Allerdings waren diese bei der Unterscheidung von unbekannten Partikeln dem neuralen Netz deutlich unterlegen. Der zweite Abschnitt stellt die Entwicklung einer einfachen Methode zur Viabilit{\"a}tsanalyse von Cyanobakterien, bei der keine weitere Behandlung der Proben notwendig ist, dar. Dabei wird die rote Chlorophyll - Autofluoreszenz als Marker f{\"u}r lebende Zellen und eine gr{\"u}ne unspezifische Fluoreszenz als Marker f{\"u}r tote Zellen genutzt. Der Assay wurde mit dem Modellorganismus Synechocystis sp. PCC 6803 etabliert und validiert. Die Auswahl eines geeigeneten Filtersets erm{\"o}glicht es beide Signale gleichzeitig anzuregen und zu beobachten und somit direkt zwischen lebendenden und toten Zellen zu unterscheiden. Die Ergebnisse zur Etablierung des Assays konnten durch Ausplattieren, Chlorophyllbestimmung und Bestimmung des Absorbtionsspektrums best{\"a}tigt werden. Durch den Einsatz von automatisierter Mikroskopie und einem neu erstellten ImageJ Plugin wurde eine sehr genaue und schnelle Analyse der Proben m{\"o}glich. Der Einsatz beim Monitoring einer mutagenisierten Kultur zur Erh{\"o}hung der Temperaturtoleranz erm{\"o}glichte genaue und zeitnahe Einblicke in den Zustand der Kultur. Weitere Ergebnisse weisen darauf hin, dass die Kombination mit Absorptionsspektren es erm{\"o}glichen k{\"o}nnen bessere Einblicke in die Vitalit{\"a}t der Kultur zu erhalten.}, subject = {Bilderkennnung}, language = {de} } @article{KaltdorfSchulzeHelmprobstetal.2017, author = {Kaltdorf, Kristin Verena and Schulze, Katja and Helmprobst, Frederik and Kollmannsberger, Philip and Dandekar, Thomas and Stigloher, Christian}, title = {Fiji macro 3D ART VeSElecT: 3D automated reconstruction tool for vesicle structures of electron tomograms}, series = {PLoS Computational Biology}, volume = {13}, journal = {PLoS Computational Biology}, number = {1}, doi = {10.1371/journal.pcbi.1005317}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-172112}, year = {2017}, abstract = {Automatic image reconstruction is critical to cope with steadily increasing data from advanced microscopy. We describe here the Fiji macro 3D ART VeSElecT which we developed to study synaptic vesicles in electron tomograms. We apply this tool to quantify vesicle properties (i) in embryonic Danio rerio 4 and 8 days past fertilization (dpf) and (ii) to compare Caenorhabditis elegans N2 neuromuscular junctions (NMJ) wild-type and its septin mutant (unc-59(e261)). We demonstrate development-specific and mutant-specific changes in synaptic vesicle pools in both models. We confirm the functionality of our macro by applying our 3D ART VeSElecT on zebrafish NMJ showing smaller vesicles in 8 dpf embryos then 4 dpf, which was validated by manual reconstruction of the vesicle pool. Furthermore, we analyze the impact of C. elegans septin mutant unc-59(e261) on vesicle pool formation and vesicle size. Automated vesicle registration and characterization was implemented in Fiji as two macros (registration and measurement). This flexible arrangement allows in particular reducing false positives by an optional manual revision step. Preprocessing and contrast enhancement work on image-stacks of 1nm/pixel in x and y direction. Semi-automated cell selection was integrated. 3D ART VeSElecT removes interfering components, detects vesicles by 3D segmentation and calculates vesicle volume and diameter (spherical approximation, inner/outer diameter). Results are collected in color using the RoiManager plugin including the possibility of manual removal of non-matching confounder vesicles. Detailed evaluation considered performance (detected vesicles) and specificity (true vesicles) as well as precision and recall. We furthermore show gain in segmentation and morphological filtering compared to learning based methods and a large time gain compared to manual segmentation. 3D ART VeSElecT shows small error rates and its speed gain can be up to 68 times faster in comparison to manual annotation. Both automatic and semi-automatic modes are explained including a tutorial.}, language = {en} }