TY - THES A1 - Bleier, Michael T1 - Underwater Laser Scanning - Refractive Calibration, Self-calibration and Mapping for 3D Reconstruction T1 - Laserscanning unter Wasser - Refraktive Kalibrierung, Selbstkalibrierung und Kartierung zur 3D Rekonstruktion N2 - There is great interest in affordable, precise and reliable metrology underwater: Archaeologists want to document artifacts in situ with high detail. In marine research, biologists require the tools to monitor coral growth and geologists need recordings to model sediment transport. Furthermore, for offshore construction projects, maintenance and inspection millimeter-accurate measurements of defects and offshore structures are essential. While the process of digitizing individual objects and complete sites on land is well understood and standard methods, such as Structure from Motion or terrestrial laser scanning, are regularly applied, precise underwater surveying with high resolution is still a complex and difficult task. Applying optical scanning techniques in water is challenging due to reduced visibility caused by turbidity and light absorption. However, optical underwater scanners provide significant advantages in terms of achievable resolution and accuracy compared to acoustic systems. This thesis proposes an underwater laser scanning system and the algorithms for creating dense and accurate 3D scans in water. It is based on laser triangulation and the main optical components are an underwater camera and a cross-line laser projector. The prototype is configured with a motorized yaw axis for capturing scans from a tripod. Alternatively, it is mounted to a moving platform for mobile mapping. The main focus lies on the refractive calibration of the underwater camera and laser projector, the image processing and 3D reconstruction. For highest accuracy, the refraction at the individual media interfaces must be taken into account. This is addressed by an optimization-based calibration framework using a physical-geometric camera model derived from an analytical formulation of a ray-tracing projection model. In addition to scanning underwater structures, this work presents the 3D acquisition of semi-submerged structures and the correction of refraction effects. As in-situ calibration in water is complex and time-consuming, the challenge of transferring an in-air scanner calibration to water without re-calibration is investigated, as well as self-calibration techniques for structured light. The system was successfully deployed in various configurations for both static scanning and mobile mapping. An evaluation of the calibration and 3D reconstruction using reference objects and a comparison of free-form surfaces in clear water demonstrate the high accuracy potential in the range of one millimeter to less than one centimeter, depending on the measurement distance. Mobile underwater mapping and motion compensation based on visual-inertial odometry is demonstrated using a new optical underwater scanner based on fringe projection. Continuous registration of individual scans allows the acquisition of 3D models from an underwater vehicle. RGB images captured in parallel are used to create 3D point clouds of underwater scenes in full color. 3D maps are useful to the operator during the remote control of underwater vehicles and provide the building blocks to enable offshore inspection and surveying tasks. The advancing automation of the measurement technology will allow non-experts to use it, significantly reduce acquisition time and increase accuracy, making underwater metrology more cost-effective. N2 - Das Interesse an präziser, zuverlässiger und zugleich kostengünstiger Unterwassermesstechnik ist groß. Beispielsweise wollen Archäologen Artefakte in situ mit hoher Detailtreue dokumentieren und in der Meeresforschung benötigen Biologen Messwerkzeuge zur Beobachtung des Korallenwachstums. Auch Geologen sind auf Messdaten angewiesen, um Sedimenttransporte zu modellieren. Darüber hinaus ist für die Errichtung von Offshore-Bauwerken, sowie deren Wartung und Inspektion eine millimetergenaue Vermessung von vorhandenen Strukturen und Defekten unerlässlich. Während die Digitalisierung einzelner Objekte und ganzer Areale an Land gut erforscht ist und verschiedene Standardmethoden, wie zum Beispiel Structure from Motion oder terrestrisches Laserscanning, regelmäßig eingesetzt werden, ist die präzise und hochauflösende Unterwasservermessung nach wie vor eine komplexe und schwierige Aufgabe. Die Anwendung optischer Messtechnik im Wasser ist aufgrund der eingeschränkten Sichttiefe durch Trübung und Lichtabsorption eine Herausforderung. Optische Unterwasserscanner bieten jedoch Vorteile hinsichtlich der erreichbaren Auflösung und Genauigkeit gegenüber akustischen Systemen. In dieser Arbeit werden ein Unterwasser-Laserscanning-System und die Algorithmen zur Erzeugung von 3D-Scans mit hoher Punktdichte im Wasser vorgestellt. Es basiert auf Lasertriangulation und die optischen Hauptkomponenten sind eine Unterwasserkamera und ein Kreuzlinienlaserprojektor. Das System ist mit einer motorisierten Drehachse ausgestattet, um Scans von einem Stativ aus aufzunehmen. Alternativ kann es von einer beweglichen Plattform aus für mobile Kartierung eingesetzt werden. Das Hauptaugenmerk liegt auf der refraktiven Kalibrierung der Unterwasserkamera und des Laserprojektors, der Bildverarbeitung und der 3D-Rekonstruktion. Um höchste Genauigkeit zu erreichen, muss die Brechung an den einzelnen Medienübergängen berücksichtigt werden. Dies wird durch ein physikalisch-geometrisches Kameramodell, das auf einer analytischen Beschreibung der Strahlenverfolgung basiert, und ein optimierungsbasiertes Kalibrierverfahren erreicht. Neben dem Scannen von Unterwasserstrukturen wird in dieser Arbeit auch die 3D-Erfassung von teilweise im Wasser befindlichen Strukturen und die Korrektur der dabei auftretenden Brechungseffekte vorgestellt. Da die Kalibrierung im Wasser komplex und zeitintensiv ist, wird die Übertragung einer Kalibrierung des Scanners in Luft auf die Bedingungen im Wasser ohne Neukalibrierung, sowie die Selbstkalibrierung für Lichtschnittverfahren untersucht. Das System wurde in verschiedenen Konfigurationen sowohl für statisches Scannen als auch für die mobile Kartierung erfolgreich eingesetzt. Die Validierung der Kalibrierung und der 3D-Rekonstruktion anhand von Referenzobjekten und der Vergleich von Freiformflächen in klarem Wasser zeigen das hohe Genauigkeitspotenzial im Bereich von einem Millimeter bis weniger als einem Zentimeter in Abhängigkeit von der Messdistanz. Die mobile Unterwasserkartierung und Bewegungskompensation anhand visuell-inertialer Odometrie wird mit einem neuen optischen Unterwasserscanner auf Basis der Streifenprojektion demonstriert. Dabei ermöglicht die kontinuierliche Registrierung von Einzelscans die Erfassung von 3D-Modellen von einem Unterwasserfahrzeug aus. Mit Hilfe von parallel aufgenommenen RGB-Bildern werden dabei farbige 3D-Punktwolken der Unterwasserszenen erstellt. Diese 3D-Karten dienen beispielsweise dem Bediener bei der Fernsteuerung von Unterwasserfahrzeugen und bilden die Grundlage für Offshore-Inspektions- und Vermessungsaufgaben. Die fortschreitende Automatisierung der Messtechnik wird somit auch eine Verwendung durch Nichtfachleute ermöglichen und gleichzeitig die Erfassungszeit erheblich verkürzen und die Genauigkeit verbessern, was die Vermessung im Wasser kostengünstiger und effizienter macht. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 28 KW - Selbstkalibrierung KW - Punktwolke KW - Bildverarbeitung KW - 3D Reconstruction KW - Self-calibration KW - Underwater Scanning KW - Underwater Mapping KW - Dreidimensionale Rekonstruktion KW - 3D-Rekonstruktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322693 SN - 978-3-945459-45-4 ER - TY - THES A1 - Reinhard, Sebastian T1 - Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks T1 - Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen N2 - The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. N2 - Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden. KW - Mikroskopie KW - Künstliche Intelligenz KW - Datenanalyse KW - Bildverarbeitung KW - Compressed Sensing KW - Lifetime Imaging KW - dSTORM Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-316959 ER - TY - THES A1 - Schmithausen, Patrick Alexander Gerhard T1 - Three-dimensional fluorescence image analysis of megakaryocytes and vascular structures in intact bone T1 - Dreidimensionale Fluoreszenzbildanalyse von Megakaryozyten und Gefäßstrukturen in intaktem Knochen N2 - The thesis provides insights in reconstruction and analysis pipelines for processing of three-dimensional cell and vessel images of megakaryopoiesis in intact murine bone. The images were captured in a Light Sheet Fluorescence Microscope. The work presented here is part of Collaborative Research Centre (CRC) 688 (project B07) of the University of Würzburg, performed at the Rudolf-Virchow Center. Despite ongoing research within the field of megakaryopoiesis, its spatio-temporal pattern of megakaryopoiesis is largely unknown. Deeper insight to this field is highly desirable to promote development of new therapeutic strategies for conditions related to thrombocytopathy as well as thrombocytopenia. The current concept of megakaryopoiesis is largely based on data from cryosectioning or in vitro studies indicating the existence of spatial niches within the bone marrow where specific stages of megakaryopoiesis take place. Since classic imaging of bone sections is typically limited to selective two-dimensional views and prone to cutting artefacts, imaging of intact murine bone is highly desired. However, this has its own challenges to meet, particularly in image reconstruction. Here, I worked on processing pipelines to account for irregular specimen staining or attenuation as well as the extreme heterogeneity of megakaryocyte morphology. Specific challenges for imaging and image reconstruction are tackled and solution strategies as well as remaining limitations are presented and discussed. Fortunately, modern image processing and segmentation strongly benefits from continuous advances in hardware as well as software-development. This thesis exemplifies how a combined effort in biomedicine, computer vision, data processing and image technology leads to deeper understanding of megakaryopoiesis. Tailored imaging pipelines significantly helped elucidating that the large megakaryocytes are broadly distributed throughout the bone marrow facing a surprisingly dense vessel network. No evidence was found for spatial niches in the bone marrow, eventually resulting in a revised model of megakaryopoiesis. N2 - Im Rahmen dieses Dissertationsvorhabens wurden Segmentierungs- und Auswertepipelines dreidimensionaler Bilder von Zellen und Gefäßen im intakten Mausknochen erarbeitet. Die Bilder entstanden durch Fluoreszenzaufnahmen eines Lichtblattmikroskops. Das Dissertationsvorhaben war Teil des Sonderforschungsbereichs 688 (Teilprojekts B07) der Universität Würzburg und es wurde am Rudolf-Virchow-Zentrum durchgeführt. Trotz einer Vielzahl aktueller Forschungsprojekte auf dem Gebiet der Megakaryopoese sind Erkenntnisse über deren räumlich-zeitliche Zusammenhänge größtenteils unbekannt. Neuere wissenschaftliche Erkenntnisse auf diesem Gebiet wären insbesondere hilfreich für die Weiterentwicklung von Behandlungsstrategien für Patienten, die an Thrombozytopenien oder Thrombozytopathien leiden. Das aktuell vorherrschende Modell zur Erklärung der Megakaryopoese geht von der Existenz räumlicher Nischen im Knochenmark aus, in denen sich die einzelnen Schritte der Megakaryopoese vollziehen. Dieses Modell basiert hauptsächlich auf Auswertungen von Gefrierschnitten sowie in-vitro Experimenten. Da die klassische Bildgebung von Knochenschnitten nur auf eine bestimmte Anzahl zweidimensionaler Schnitte begrenzt ist und deren Qualität unter Schnittartefakten leidet, ist die Bildgebung des intakten Knochens von besonderem Interesse. Dennoch führt dies zu neuen Herausforderungen im Bereich der Bilddatenauswertung. Im vorliegenden Dissertationsvorhaben beschäftige ich mich in diesem Bereich mit der Erarbeitung von Auswerteprotokollen, welche beispielsweise den Einfluss unregelmäßiger Färbungen oder Signalabschwächungen sowie die extreme Heterogenität der Megakaryozytenmorphologie berücksichtigen. Spezifische Herausforderungen für die Bildgebung und Bildrekonstruktion werden in Angriff genommen und Lösungsstrategien sowie verbleibende Einschränkungen werden vorgestellt und diskutiert. Erfreulicherweise profitieren insbesondere die moderne Bildbearbeitung sowie die Objekterkennung in großem Ausmaß von fortlaufenden Entwicklungen aus dem Hard- sowie Softwarebereich. Dieses Dissertationsvorhaben zeigt auf exemplarische Art und Weise auf, wie gemeinsame Forschungsanstrengungen im Bereich der Biomedizin, des Maschinellen Sehens, der Datenverarbeitung sowie der Bildtechnologie zu einem tieferen Verständnis der Megakaryopoese führen. Die maßgeschneiderten Pipelines zur Bilddatenauswertung stützten letztlich die These, dass größere Megakaryozyten im Knochenmark breit verteilt sind und von einem überraschend dichten Gefäßnetz umgeben sind. Beweise für die Existenz räumlicher Nischen im Knochenmark konnten nicht gefunden warden. Dieses führte schließlich zur Vorstellung eines überarbeiteten Modells der Megakaryopoese. KW - Megakaryozytopoese KW - Fluoreszenzmikroskopie KW - Megakaryozyt KW - Lichtscheibenmikroskopie KW - Bildverarbeitung KW - lightsheet microscopy KW - megakaryopoiesis KW - fluorescence microscopy KW - intact bone imaging KW - object segmentation KW - Lichtblattmikroskopie KW - Bildbearbeitung KW - Megakaryopoese KW - Bildgebung intakten Knochens Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178541 ER - TY - THES A1 - Pfitzner, Christian T1 - Visual Human Body Weight Estimation with Focus on Clinical Applications T1 - Optische Körpergewichtsschätzung für medizinische Anwendungen N2 - It is the aim of this thesis to present a visual body weight estimation, which is suitable for medical applications. A typical scenario where the estimation of the body weight is essential, is the emergency treatment of stroke patients: In case of an ischemic stroke, the patient has to receive a body weight adapted drug, to solve a blood clot in a vessel. The accuracy of the estimated weight influences the outcome of the therapy directly. However, the treatment has to start as early as possible after the arrival at a trauma room, to provide sufficient treatment. Weighing a patient takes time, and the patient has to be moved. Furthermore, patients are often not able to communicate a value for their body weight due to their stroke symptoms. Therefore, it is state of the art that physicians guess the body weight. A patient receiving a too low dose has an increased risk that the blood clot does not dissolve and brain tissue is permanently damaged. Today, about one-third gets an insufficient dosage. In contrast to that, an overdose can cause bleedings and further complications. Physicians are aware of this issue, but a reliable alternative is missing. The thesis presents state-of-the-art principles and devices for the measurement and estimation of body weight in the context of medical applications. While scales are common and available at a hospital, the process of weighing takes too long and can hardly be integrated into the process of stroke treatment. Sensor systems and algorithms are presented in the section for related work and provide an overview of different approaches. The here presented system -- called Libra3D -- consists of a computer installed in a real trauma room, as well as visual sensors integrated into the ceiling. For the estimation of the body weight, the patient is on a stretcher which is placed in the field of view of the sensors. The three sensors -- two RGB-D and a thermal camera -- are calibrated intrinsically and extrinsically. Also, algorithms for sensor fusion are presented to align the data from all sensors which is the base for a reliable segmentation of the patient. A combination of state-of-the-art image and point cloud algorithms is used to localize the patient on the stretcher. The challenges in the scenario with the patient on the bed is the dynamic environment, including other people or medical devices in the field of view. After the successful segmentation, a set of hand-crafted features is extracted from the patient's point cloud. These features rely on geometric and statistical values and provide a robust input to a subsequent machine learning approach. The final estimation is done with a previously trained artificial neural network. The experiment section offers different configurations of the previously extracted feature vector. Additionally, the here presented approach is compared to state-of-the-art methods; the patient's own assessment, the physician's guess, and an anthropometric estimation. Besides the patient's own estimation, Libra3D outperforms all state-of-the-art estimation methods: 95 percent of all patients are estimated with a relative error of less than 10 percent to ground truth body weight. It takes only a minimal amount of time for the measurement, and the approach can easily be integrated into the treatment of stroke patients, while physicians are not hindered. Furthermore, the section for experiments demonstrates two additional applications: The extracted features can also be used to estimate the body weight of people standing, or even walking in front of a 3D camera. Also, it is possible to determine or classify the BMI of a subject on a stretcher. A potential application for this approach is the reduction of the radiation dose of patients being exposed to X-rays during a CT examination. During the time of this thesis, several data sets were recorded. These data sets contain the ground truth body weight, as well as the data from the sensors. They are available for the collaboration in the field of body weight estimation for medical applications. N2 - Diese Arbeit zeigt eine optische Körpergewichtsschätzung, welche für medizinische Anwendungen geeignet ist. Ein gängiges Szenario, in dem eine Gewichtsschätzung benötigt wird, ist die Notfallbehandlung von Schlaganfallpatienten: Falls ein ischämischer Schlaganfall vorliegt, erhält der Patient ein auf das Körpergewicht abgestimmtes Medikament, um einen Thrombus in einem Gefäß aufzulösen. Die Genauigkeit der Gewichtsschätzung hat direkten Einfluss auf den Erfolg der Behandlung. Hinzu kommt, dass die Behandlung so schnell wie möglich nach der Ankunft im Krankenhaus erfolgen muss, um eine erfolgreiche Behandlung zu garantieren. Das Wiegen eines Patienten ist zeitaufwändig und der Patient müsste hierfür bewegt werden. Des Weiteren können viele Patienten aufgrund des Schlaganfalls nicht ihr eigenes Gewicht mitteilen. Daher ist es heutzutage üblich, dass Ärzte das Gewicht schätzen. Erhält ein Patient eine zu geringe Dosis, steigt das Risiko, dass sich der Thrombus nicht auflöst und das Gehirngewebe dauerhaft geschädigt bleibt. Eine Überdosis kann dagegen zu Blutungen und weiteren Komplikationen führen. Ein Drittel der Patienten erhält heutzutage eine unzureichende Dosis. Ärzte sind sich dessen bewusst, aber derzeit gibt es kein alternatives Vorgehen. Diese Arbeit präsentiert Elemente und Geräte zur Messung und Schätzung des Körpergewichts, die im medizinischen Umfeld verwendet werden. Zwar sind Waagen im Krankenhaus üblich, aufgrund des engen Zeitfensters für die Behandlung können sie aber nur schlecht in den Behandlungsablauf von Schlaganfallpatienten integriert werden. Der Abschnitt zum Stand der Technik zeigt verschiedene Sensorsysteme und Algorithmen. Das hier gezeigte System -- genannt Libra3D -- besteht aus einem Computer im Behandlungsraum, sowie den in der Decke integrierten optischen Sensoren. Für die Gewichtsschätzung befindet sich der Patient auf einer Liege im Blickfeld der Sensoren. Die drei Sensoren -- zwei RGB-D- und einer Wärmebildkamera -- sind intrinsisch und extrinsisch kalibriert. Des Weiteren werden Algorithmen zur Sensorfusion vorgestellt, welche die Daten für eine erfolgreiche Segmentierung des Patienten zusammenführen. Eine Kombination aus verschiedenen gängigen Bildverarbeitungs- und Punktwolken-Algorithmen lokalisiert den Patienten auf der Liege. Die Herausforderung in diesem Szenario mit dem Patienten auf dem Bett sind ständige Veränderungen, darunter auch andere Personen oder medizinische Geräte im Sichtfeld. Nach der erfolgreichen Segmentierung werden Merkmale von der Punktwolke des Patienten extrahiert. Diese Merkmale beruhen auf geometrischen und statistischen Eigenschaften und bieten robuste Werte für das nachfolgende maschinelle Lernverfahren. Die Schätzung des Gewichts basiert letztlich auf einem zuvor trainierten künstlichen neuronalen Netz. Das Kapitel zu den Experimenten zeigt verschiedene Kombinationen von Werten aus dem Merkmalsvektor. Zusätzlich wird der Ansatz mit Methoden aus dem Stand der Technik verglichen: der Schätzung des Patienten, des Arztes, und einer anthropometrischen Schätzung. Bis auf die eigene Schätzung des Patienten übertrifft Libra3D hierbei alle anderen Methoden: 95 Prozent aller Schätzungen weisen einen relativen Fehler von weniger als 10 Prozent zum realen Körpergewicht auf. Dabei benötigt das System wenig Zeit für eine Messung und kann einfach in den Behandlungsablauf von Schlaganfallpatienten integriert werden, ohne Ärzte zu behindern. Des Weiteren zeigt der Abschnitt für Experimente zwei weitere Anwendungen: Die extrahierten Merkmale können dazu verwendet werden das Gewicht von stehenden und auch laufenden Personen zu schätzen, die sich vor einer 3D-Kamera befinden. Darüber hinaus ist es auch möglich den BMI von Patienten auf einer Liege zu bestimmen. Diese kann die Strahlenexposition bei CT-Untersuchungen beispielsweise verringern. Während dieser Dissertation sind einige Datensätze entstanden. Sie enthalten das reale Gewicht, sowie die dazugehörigen Sensordaten. Die Datensätze sind für die Zusammenarbeit im Bereich der Körpergewichtsschätzung für medizinische Anwendungen verfügbar. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 18 KW - Punktwolke KW - Maschinelles Lernen KW - Schlaganfall KW - Körpergewicht KW - Bildverarbeitung KW - 3D Point Cloud Processing KW - Image Processing KW - Stroke KW - Human Body Weight KW - Kinect KW - Machine Learning KW - Sensor Fusion KW - Segmentation KW - Perception Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174842 SN - 978-3-945459-27-0 (online) ER - TY - THES A1 - Prada Salcedo, Juan Pablo T1 - Image Processing and other bioinformatic tools for Neurobiology T1 - Bildbearbeitung und andere bioinformatische Werkzeuge für die Neurobiologie N2 - Neurobiology is widely supported by bioinformatics. Due to the big amount of data generated from the biological side a computational approach is required. This thesis presents four different cases of bioinformatic tools applied to the service of Neurobiology. The first two tools presented belong to the field of image processing. In the first case, we make use of an algorithm based on the wavelet transformation to assess calcium activity events in cultured neurons. We designed an open source tool to assist neurobiology researchers in the analysis of calcium imaging videos. Such analysis is usually done manually which is time consuming and highly subjective. Our tool speeds up the work and offers the possibility of an unbiased detection of the calcium events. Even more important is that our algorithm not only detects the neuron spiking activity but also local spontaneous activity which is normally discarded because it is considered irrelevant. We showed that this activity is determinant in the calcium dynamics in neurons and it is involved in important functions like signal modulation and memory and learning. The second project is a segmentation task. In our case we are interested in segmenting the neuron nuclei in electron microscopy images of c.elegans. Marking these structures is necessary in order to reconstruct the connectome of the organism. C.elegans is a great study case due to the simplicity of its nervous system (only 502 neurons). This worm, despite its simplicity has taught us a lot about neuronal mechanisms. There is still a lot of information we can extract from the c.elegans, therein lies the importance of reconstructing its connectome. There is a current version of the c.elegans connectome but it was done by hand and on a single subject which leaves a big room for errors. By automatizing the segmentation of the electron microscopy images we guarantee an unbiased approach and we will be able to verify the connectome on several subjects. For the third project we moved from image processing applications to biological modeling. Because of the high complexity of even small biological systems it is necessary to analyze them with the help of computational tools. The term in silico was coined to refer to such computational models of biological systems. We designed an in silico model of the TNF (Tumor necrosis factor) ligand and its two principal receptors. This biological system is of high relevance because it is involved in the inflammation process. Inflammation is of most importance as protection mechanism but it can also lead to complicated diseases (e.g. cancer). Chronic inflammation processes can be particularly dangerous in the brain. In order to better understand the dynamics that govern the TNF system we created a model using the BioNetGen language. This is a rule based language that allows one to simulate systems where multiple agents are governed by a single rule. Using our model we characterized the TNF system and hypothesized about the relation of the ligand with each of the two receptors. Our hypotheses can be later used to define drug targets in the system or possible treatments for chronic inflammation or lack of the inflammatory response. The final project deals with the protein folding problem. In our organism proteins are folded all the time, because only in their folded conformation are proteins capable of doing their job (with some very few exceptions). This folding process presents a great challenge for science because it has been shown to be an NP problem. NP means non deterministic Polynomial time problem. This basically means that this kind of problems cannot be efficiently solved. Nevertheless, somehow the body is capable of folding a protein in just milliseconds. This phenomenon puzzles not only biologists but also mathematicians. In mathematics NP problems have been studied for a long time and it is known that given the solution to one NP problem we could solve many of them (i.e. NP-complete problems). If we manage to understand how nature solves the protein folding problem then we might be able to apply this solution to many other problems. Our research intends to contribute to this discussion. Unfortunately, not to explain how nature solves the protein folding problem, but to explain that it does not solve the problem at all. This seems contradictory since I just mentioned that the body folds proteins all the time, but our hypothesis is that the organisms have learned to solve a simplified version of the NP problem. Nature does not solve the protein folding problem in its full complexity. It simply solves a small instance of the problem. An instance which is as simple as a convex optimization problem. We formulate the protein folding problem as an optimization problem to illustrate our claim and present some toy examples to illustrate the formulation. If our hypothesis is true, it means that protein folding is a simple problem. So we just need to understand and model the conditions of the vicinity inside the cell at the moment the folding process occurs. Once we understand this starting conformation and its influence in the folding process we will be able to design treatments for amyloid diseases such as Alzheimer's and Parkinson's. In summary this thesis project contributes to the neurobiology research field from four different fronts. Two are practical contributions with immediate benefits, such as the calcium imaging video analysis tool and the TNF in silico model. The neuron nuclei segmentation is a contribution for the near future. A step towards the full annotation of the c.elegans connectome and later for the reconstruction of the connectome of other species. And finally, the protein folding project is a first impulse to change the way we conceive the protein folding process in nature. We try to point future research in a novel direction, where the amino code is not the most relevant characteristic of the process but the conditions within the cell. N2 - Neurobiologie wird durch Bioinformatik unterstützt, aufgrund der großen Datenmengen, die von biologischer Seite her anfallen, bedarf es eines rechnerischen Ansatzes, um diese Daten sinnvoll zu interpretieren. Im Rahmen der vorliegenden Dissertation werden vier Werkzeuge aus dem Bereich der Bioinformatik für die Anwendung in der Neurobiologie vorgestellt. Die ersten beiden Werkzeuge gehören zum Bereich der digitalen Bildverarbeitung. Das erste Werkzeug nutzt einen Algorithmus basierend auf der Wavelet-Transformation, um Calciumaktivität in Neuronenkulturen zu bewerten. Hierzu wurde Open-Source-Software entwickelt, die Neurobiologen bei der Analyse von Videoaufnahmen unterstützt. Diese Analyse wird herkömmlicherweise manuell vorgenommen, sodass der Prozess zeitintensiv und sehr subjektiv ist. Die entwickelte Software beschleunigt den Arbeitsprozess und ermöglicht eine unverzerrte Detektion der Ereignisse in Bezug auf Calcium. Von noch größerer Bedeutsamkeit ist die Tatsache, dass der entwickelte Algorithmus nicht nur neuronale Spiking-Aktivität detektiert, sondern auch lokale Spontanaktivität, die herkömmlicherweise als irrelevant betrachtet und daher verworfen wird. Wir konnten zeigen, dass diese Spontanaktivität hohe Relevanz für die Dynamik von Calcium in den Neuronen besitzt und wahrscheinlich an wichtigen Funktionen beteiligt ist, wie der Signalmodulation, Lernen und Gedächtnis. Beim zweiten Projekt handelt es sich um eine Segmentierungsaufgabe. Wir sind daran interessiert, die neuronalen Zellkerne in elektromikroskopischen Aufnahmen des C.elegans zu segmentieren. Die Kennzeichnung dieser Struktur ist notwendig, um das Konnektom dieses Organismus zu rekonstruieren. Als Studienobjekt eignet sich C.elegans aufgrund der Simplizität seines Nervensystems (er besteht lediglich aus 502 Neuronen). Trotz der Simplizität des Nervensystems dieses Wurms konnten wichtige Erkenntnisse im Hinblick auf neuronale Mechanismen durch die Untersuchung dieses Modellorganismus gewonnen werden. Daher ist die Bestimmung des Konnektoms bedeutsam. Es existiert bereits eine Version des Konnektoms, doch diese wurde händig für lediglich ein Subjekt rekonstruiert und ist daher möglicherweise fehlerbehaftet. Die automatisierte Segmentierung der elektronenmikroskopischen Aufnahmen ermöglicht einen weniger verzerrten Ansatz, der zudem die Verifizierung an mehreren Subjekten gestattet. Das dritte Projekt dieser Dissertation ist ein Projekt zur Modellierung und Simulation eines biologischen Systems. Aufgrund der hohen Komplexität selbst kleinster biologischer Systeme ist die computergestützte Analyse notwendig. Der Begriff in silico wurde für die computergestützte Simulation biologischer Systeme geprägt. Wir haben ein in silico Modell des TNF (Tumornekrosefaktor) Ligand und seiner zwei Hauptrezeptoren entwickelt. Dieses biologische System ist von hoher Bedeutsamkeit, da es am Entzündungsprozess beteiligt ist, der höchste Wichtigkeit als Schutzmechanismus hat, aber es kann auch komplizierte Erkrankungen auslösen (beispielsweise Krebs), falls es zu einer chronischen Entzündungsreaktion kommt. Derartige Entzündungsprozesse können besonders gefährlich im Gehirn sein. Das System muss eine schwierige Balance zwischen protektiver Funktion und möglicher Krankheitsursache behalten. Um die Dynamiken besser zu verstehen, die das TNF System leiten, haben wir ein Modell mittels der BioNetGen Sprache erstellt. Diese regelbasierte Sprache ermöglicht es ein System zu simulieren, in dem multiple Agenten geleitet werden von einer Regel. Mithilfe unseres Modells charakterisieren wir das TNF System und stellen Hypothesen über die Beziehung des Liganden mit den beiden Rezeptoren auf. Diese Hypothesen können später genutzt werden, um mögliche Ziele im System für Arzneimittel, mögliche Behandlungen für chronische Entzündungen oder das Fehlen einer Entzündungsreaktion zu bestimmen. Im abschießenden Projekt wird das Proteinfaltungsproblem behandelt. In unserem Organismus werden ständig Proteine gefaltet, denn nur im gefalteten Zustand können sie ihrer Aufgabe nachkommen (mit sehr wenigen Ausnahmen). Dieser Faltungsprozess stellt eine große Herausforderung für die Wissenschaft dar, weil gezeigt wurde, dass der Faltungsprozess ein NP Problem ist. NP steht dabei für nichtdeterministisch polynomielles Zeitproblem. Dies bedeutet im Grunde, dass es nicht effizient gelöst werden kann. Nichtsdestotrotz ist der Körper in der Lage, ein Protein in Millisekunden zu falten. Dieses Phänomen stellt nicht nur Biologen sondern auch Mathematiker vor Rätsel. In der Mathematik wurde diese Probleme schon lange studiert und es ist bekannt, dass die Kenntnis der Lösung eines NP Problems die Lösung vieler bedeuten würde (insbesondere NP-kompletter Probleme). Daher ist die Idee, dass viele Probleme gelöst werden könnten, durch das Verständnis davon, wie die Natur das Problem löst. Unsere Forschung zielt darauf ab, zu dieser Diskussion beizutragen, allerdings nicht durch die Erklärung davon, wie die Natur das Problem löst, sondern durch die Erklärung, dass die Natur das Problem nicht löst. Dies scheint zunächst widersprüchlich, da der Körper ständig Proteine faltet. Unsere Hypothese besagt jedoch, dass der Organismus gelernt hat, eine vereinfachte Version des NP Problems zu lösen. Die Natur löst das Problem nicht in seiner vollen Komplexität, sondern nur eine kleine Instanz davon. Eine Instanz, die ein konvexes Optimierungsproblem darstellt. Wir formulieren das Proteinfaltungsproblem als konvexes Optimierungsproblem und zur Illustrierung unserer Behauptung nutzen wir theoretische Beispiele. Wenn die Hypothese zutrifft, bedeutet dies, dass das Proteinfaltungsproblem ein einfaches ist und wir müssen lediglich die Ausgangskonstellation der Umgebung in der Zelle verstehen und modellieren, in dem Moment in dem die Faltung passiert. Sobald wir die Ausgangskonstellation und den Einfluss auf den Faltungsprozess verstehen, können wir Behandlungen für Amyloid-Krankheiten, wie Alzheimer-Demenz und Morbus Parkinson entwickeln. Zusammenfassend trägt die vorliegende Dissertation zu neurobiologischer Forschung durch vier Ansätze bei. Zwei sind praktische Beiträge mit sofortigem Nutzen für die Forschung, dazu zählen das Videoanalyse Tool für Calcium Aufnahmen und das TNF in silico Modell. Die neuronale Zellkernsegmentierung ist ein Beitrag für die nahe Zukunft – ein Schritt zur Vervollständigung des Konnektoms des C.elegans und langfristig zur Rekonstruktion der Konnektome anderer Spezies. Und schließlich ist das Proteinfaltungsprojekt ein erster Impuls den Proteinfaltungsprozess anders zu denken. Wir versuchen zukünftige Forschung in eine andere Richtung zu lenken, wobei nicht der Aminosäurecode das relevanteste Charakteristikum des Prozesses ist, sondern vielmehr die Bedingungen innerhalb der Zelle. KW - Bildverarbeitung KW - Neurobiologie KW - Model simulation KW - Protein folding KW - Bioinformatik KW - Image Processing KW - Simulation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157721 ER - TY - THES A1 - Tzschichholz, Tristan T1 - Relative pose estimation of known rigid objects using a novel approach to high-level PMD-/CCD- sensor data fusion with regard to applications in space T1 - Relative Lagebestimmung bekannter fester Objekte unter Verwendung eines neuen Ansatzes zur anwendungsnahen Sensordatenfusion einer PMD- und CCD-Kamera hinsichtlich ihrer Anwendungen im Weltraum N2 - In this work, a novel method for estimating the relative pose of a known object is presented, which relies on an application-specific data fusion process. A PMD-sensor in conjunction with a CCD-sensor is used to perform the pose estimation. Furthermore, the work provides a method for extending the measurement range of the PMD sensor along with the necessary calibration methodology. Finally, extensive measurements on a very accurate Rendezvous and Docking testbed are made to evaluate the performance, what includes a detailed discussion of lighting conditions. N2 - In der Arbeit wird eine neuartige Methode zur Bestimmung der relativen Lage eines bekannten Objektes vorgestellt, welche auf einem anwendungsspezifischen Datenfusionsprozess basiert. Dabei wird ein PMD-Sensor zusammen mit einem CCD-Sensor benutzt, um die Lagebestimmung vorzunehmen. Darüber hinaus liefert die Arbeit eine Methode, den Messbereich des PMD-Sensors zu erhöhen zusammen mit der notwendigen Kalibrierungsmethoden. Schließlich werden detailierte und weitreichende Messungen aus einer sehr genauen Rendezvous und Docking-Testanlage gemacht, um die Leistungsfähigkeit des Algorithmus zu demonstrieren, was auch eine detaillierte Behandung der Beleuchtungsbedingungen einschließt. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 8 KW - Bildverarbeitung KW - PMD KW - phase unwrapping KW - rendezvous and docking KW - data fusion KW - pose estimation KW - Sensor KW - Raumfahrt KW - Image Processing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-103918 SN - 978-3-923959-95-2 SN - 1868-7474 ER - TY - THES A1 - Schmid, Benjamin T1 - Computational tools for the segmentation and registration of confocal brain images of Drosophila melanogaster T1 - Software Tools für die Segmentierung und Registrierung konfokaler Gehirnbilder von Drosophila melanogaster N2 - Neuroanatomical data in fly brain research are mostly available as spatial gene expression patterns of genetically distinct fly strains. The Drosophila standard brain, which was developed in the past to provide a reference coordinate system, can be used to integrate these data. Working with the standard brain requires advanced image processing methods, including visualisation, segmentation and registration. The previously published VIB Protocol addressed the problem of image registration. Unfortunately, its usage was severely limited by the necessity of manually labelling a predefined set of neuropils in the brain images at hand. In this work I present novel tools to facilitate the work with the Drosophila standard brain. These tools are integrated in a well-known open-source image processing framework which can potentially serve as a common platform for image analysis in the neuroanatomical research community: ImageJ. In particular, a hardware-accelerated 3D visualisation framework was developed for ImageJ which extends its limited 3D visualisation capabilities. It is used for the development of a novel semi-automatic segmentation method, which implements automatic surface growing based on user-provided seed points. Template surfaces, incorporated with a modified variant of an active surface model, complement the segmentation. An automatic nonrigid warping algorithm is applied, based on point correspondences established through the extracted surfaces. Finally, I show how the individual steps can be fully automated, and demonstrate its application for the successful registration of fly brain images. The new tools are freely available as ImageJ plugins. I compare the results obtained by the introduced methods with the output of the VIB Protocol and conclude that our methods reduce the required effort five to ten fold. Furthermore, reproducibility and accuracy are enhanced using the proposed tools. N2 - Expressionsmuster genetisch manipulierter Fliegenstämme machen den Großteil neuroanatomischer Daten aus, wie sie in der Gehirnforschung der Taufliege Drosophila melanogaster entstehen. Das Drosophila Standardgehirn wurde u.a. entwickelt, um die Integration dieser Daten in ein einheitliches Referenz-Koordinatensystem zu ermöglichen. Die Arbeit mit dem Standardgehirn erfordert hochentwickelte Bildverarbeitungsmethoden, u.a. zur 3D Visualisierung, Segmentierung und Registrierung. Das bereits publizierte "VIB Protocol" stellte bisher eine Möglichkeit für die Registrierung zur Verfügung, die aber duch die Notwendigkeit manueller Segmentierung bestimmter Neuropile nur eingeschränkt verwendbar war. In der vorliegenden Arbeit stelle ich neue Werkzeuge vor, die den Umgang mit dem Standardgehirn erleichtern. Sie sind in ein bekanntes, offenes Bildverarbeitungsprogramm integriert, das potentiell als Standardsoftware in der neuroanatomischen Forschung dienen kann: ImageJ. Im Zuge dieser Arbeit wurde eine hardwarebeschleunigte 3D Visualisierungs-Bibliothek entwickelt, die die Visualisierungsmöglichkeiten von ImageJ ergänzt. Auf Basis dieser Entwicklung wurde anschließend ein neuer halbautomatischer Segmentierungs-Algorithmus erstellt. In diesem Algorithmus werden Neuropil-Oberflächen, ausgehend von ausgewählten Ausgangspunkten, aufgebaut und erweitert. Vorlagen von Neuropil-Oberflächen aus der Segmentierung eines Referenz-Datensatzes, die anhand eines modifizierten "Active Surface" Modells einbezogen werden können, ergänzen die aktuelle Segmentierung. Die so erhaltenen Oberflächen ermöglichen es, korrespondierende Landmarken in den Bildern zu ermitteln, die für eine nicht-rigide Registrierung verwendet werden. Schließlich wird dargelegt, wie die einzelnen Schritte voll automatisiert werden können, um die Bilder der Fliegengehirne aufeinander abzubilden. Die vorgestellten Methoden sind frei als Erweiterungen für ImageJ verfügbar (Plugins). Ein direkter Vergleich mit dem VIB Protokoll zeigt, dass durch die vorgestellten Methoden nicht nur der Benutzeraufwand auf ein Sechstel reduziert, sondern dass gleichzeitig auch die Genauigkeit und Reproduzierbarkeit erhöht wird. KW - Taufliege KW - Segmentierung KW - Bildverarbeitung KW - Gehirn KW - Drosophila KW - Gehirnanatomie KW - Konfokalmikroskopie KW - Deformable models KW - Drosophila KW - brain anatomy KW - confocal microscopy KW - deformable models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-51490 ER - TY - THES A1 - Wawrowsky, Kolja Alexander T1 - Analysis and Visualization in Multidimensional Microscopy T1 - Analyse und Visualisierung in der multidimensionalen Mikroskopie N2 - The live sciences currently undergo a paradigm shift to computer aided discoveries. Discoveries in the live sciences were historically made by either direct observation or as a result of chemical assays. Today we see a growing shift toward computer aided analysis and visualization. This gradual process happens in microscopy. Multidimensional laser scanning microscopy can acquire very complex multichannel data from fixed or live specimen. New probes such as visible fluorescent proteins let us observe the expression of genes and track protein localization. Ion sensitive dyes change intensity with the concentration of ions in the cell. The laser scanning confocal allows us to record these processes in three dimensions over time. This work demonstrates the application of software analysis to multidimensional microscopy data. We introduce methods for volume investigation, ion flux analysis and molecular modeling. The visualization methods are based on a multidimensional data model to accommodate complex datasets. The software uses vector processing and multiple processors to accelerate volume rendering and achieve interactive rendering. The algorithms are based on human visual perception and allow the observer a wide range of mixed render modes. The software was used to reconstruct the pituitary development in zebrafish and observe the degeneration of neurons after injury in a mouse model. Calicum indicator dyes have long been used to study calcium fluxes. We optimized the imaging method to minimize impact on the cell. Live cells were imaged continuously for 45 minutes and subjected to increasing does of a drug. We correlated the amplitude of calcium oscillations to increasing doses of a drug and obtain single cell dose response curves. Because this method is very sensitive and measures single cell responses it has potential in drug discovery and characterization. Microtubules form a dynamic cytoskeleton, which is responsible for cell shape, intracellular transport and has an integral role in mitosis. A hallmark of microtubule organization is lateral interactions. Microtubules are bundles by proteins into dense structures. To estimate the contribution of this bundling process, we created a fractal model of microtubule organization. This model demonstrates that morphology of complex microtubule arrays can be explained by bundling alone. In summary we showed that advances in software for visualization, data analysis and modeling lead to new discoveries. N2 - Die biologische Forschung befindet sich in einem Paradigmenwandel, in dem Endeckungen immer mehr von Computeranalyse ermöglicht werden. Entdeckungen in der biologischen Forschung wurden historisch gesehen durch direkte Beobachtung and mit Hilfe chemischer Analysemethoden gemacht. Heute sehen wir einen wachsenden Trend zur computerunterstützten Analyse und Visualisierung. Dieser graduelle Umschwung spielt sich auch in der Mikroskopie ab. Multidimensionale Laser Scanning Mikroskopie kann sehr komplexe Multikanalbilder von fixierten oder lebenden Präparaten aufnehmen. Neue Methoden (wie z.B. fluoreszierende Proteine) erlauben es, Genexpression und Proteinlokalisierung direkt sichtbar zu machen. Ionensensitive Farbstoffe ändern ihre Helligkeit mit der Konzentration der Ionen in der Zelle. Die konfokale Mikroskopie erlaubt es, diese Änderungen dreidimensional über die Zeit aufzunehmen. Die hier vorgestellte Arbeit demonstriert die Anwendung speziell entwickelter Software für die Analyse multidimensionaler Daten. Die hierbei entwickelten Methoden wurden für Volumendarstellung, Ionenfluxanalyse und zur molekularen Modellierung eingesetzt. Die Visualisierungsmethoden basieren auf einem multidimensionalen Datenmodel, um auch komplexe Daten verarbeiten zu können. Die Software benutzt Vektorverarbeitung und Multiprozessorunterstützung um Volumendarstellung schneller und interaktiv zu machen. Die Algorithmen beruhen auf Erkenntnissen der Wahrnehmungsforschung und erlauben es dem Anwender, eine Reihe von verschiedenen Darstellungsmodi zu kombinieren. Die Software wurde erstmals verwendet, um einerseits die Entwicklung der Hypophyse im Zebrafisch zu rekonstruieren, und andererseits die Degenerierung von Neuronen im Mausmodell bildlich zu verfolgen. Kalziumfarbstoffe wurden schon länger zum Studium von Kalziumoszillationen in Zellen eingesetzt. Wir optimierten die Bildaufnahmemethode um Schädigungen der Zelle zu minimieren. Zellen wurden kontinuierlich in 45 Minuten Zeitintervallen aufgenommen und dabei wachsenden Dosen der zu untersuchenden Substanz ausgesetzt. Durch Korrelation von Dosis und Oszillationsamplitude konnten pharmakologische Wirkungskurven für jede einzelne Zelle ermittelt werden. Diese Methode hat wegen der hohen Sensitivität und Auflösung bis zur einzelnen Zelle Potential für pharmakologische Untersuchungen. Mikrotubuli formen ein dynamisches Zytoskelett, das für Zellform und intrazellularen Transport zuständig ist und eine integrale Rolle bei der Mitose spielt. Eine besondere Eigenschaft der Mikrotubuli ist die laterale Interaktion. Mikrotubuli werden von Motorproteinen zu dichten Strukturen gebündelt. Um den möglichen Einfluß dieses Vorgangs auf die Organisation der Mikotubuli zu testen, wurde ein fraktales Model erstellt. Dieses Modell demonstriert, daß die komplexe Organisation der Mikrotubuli in einigen Fällen allein mit dem Bündelungsprozess erklärt werden kann. Zusammenfassend konnte in dieser Arbeit demonstriert werden, daß der Einsatz speziell entwickelter Software für Visualisierung, Datenanalyse und Modellierung zu neuen wissenschaftlichen Erkenntnissen führen kann. KW - Konfokale Mikroskopie KW - Laser-Rastermikroskopie KW - Leica-Mikroskopie und -Systeme GmbH KW - Mikroskopie KW - Visualisierung KW - Bildverarbeitung KW - Mikrotubuli KW - Visualization KW - Image Processing KW - Microtubules Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-23867 ER - TY - THES A1 - Schindelin, Johannes T1 - The standard brain of Drosophila melanogaster and its automatic segmentation T1 - Das Standardgehirn von Drosophila melanogaster und seine automatische Segmentierung N2 - In this thesis, I introduce the Virtual Brain Protocol, which facilitates applications of the Standard Brain of Drosophila melanogaster. By providing reliable and extensible tools for the handling of neuroanatomical data, this protocol simplifies and organizes the recurring tasks involved in these applications. It is demonstrated that this protocol can also be used to generate average brains, i.e. to combine recordings of several brains with the same features such that the common features are emphasized. One of the most important steps of the Virtual Insect Protocol is the aligning of newly recorded data sets with the Standard Brain. After presenting methods commonly applied in a biological or medical context to align two different recordings, it is evaluated to what extent this alignment can be automated. To that end, existing Image Processing techniques are assessed. I demonstrate that these techniques do not satisfy the requirements needed to guarantee sensible alignments between two brains. Then, I analyze what needs to be taken into account in order to formulate an algorithm which satisfies the needs of the protocol. In the last chapter, I derive such an algorithm using methods from Information Theory, which bases the technique on a solid mathematical foundation. I show how Bayesian Inference can be applied to enhance the results further. It is demonstrated that this approach yields good results on very noisy images, detecting apparent boundaries between structures. The same approach can be extended to take additional knowledge into account, e.g. the relative position of the anatomical structures and their shape. It is shown how this extension can be utilized to segment a newly recorded brain automatically. N2 - In dieser Arbeit wird das Virtual Brain Protocol vorgestellt, das die Anwendungen rund um das Standardgehirn von \dm\ erleichtert. Durch das Bereitstellen robuster und erweiterbarer Werkzeuge zum Verarbeiten neuroanatomischer Datensätze ermöglicht es ein strukturiertes Abarbeiten der häufig benötigten Vorgänge im Zusammenhang mit der Arbeit mit dem Standardgehirn. Neben der Einpassung neuer Daten in das Standardgehirn kann dieses Protokoll auch dazu verwendet werden, sogenannte Durchschnittshirne zu erstellen; Aufnahmen mehrerer Hirne mit der gleichen zu zeigenden Eigenschaft können zu einem neuen Datensatz kombiniert werden, der die gemeinsamen Charakteristika hervorhebt. Einer der wichtigsten Schritte im Virtual Insect Protocol ist die Alignierung neuer Datensätze auf das Standardgehirn. Nachdem Methoden vorgestellt werden, die üblicherweise im biologischen oder medizinischen Umfeld angewendet werden, um Hirne aufeinander zu alignieren, wird evaluiert, inwiefern dieser Prozess automatisierbar ist. In der Folge werden diverse bildverarbeitende Methoden in dieser Hinsicht beurteilt. Es wird demonstriert, dass diese Verfahren den Anforderungen sinnvoller Alignierungen von Hirnen nicht genügen. Infolgedessen wird genauer analysiert, welche Umstände berücksichtigt werden müssen, um einen Algorithmus zu entwerfen, der diesen Anforderungen genügt. Im letzten Kapitel wird ein solcher Algorithmus mithilfe von Methoden aus der Informationstheorie hergeleitet, deren Verwendung das Verfahren auf eine solide mathematische Basis stellt. Es wird weiterhin gezeigt, wie Bayesische Inferenz angewendet werden kann, um die Ergebnisse darüber hinaus zu verbessern. Sodann wird demonstriert, daß dieser Algorithmus in stark verrauschten Bilddaten ohne zusätzliche Informationen Grenzen zwischen Strukturen erkennen kann, die mit den sichtbaren Grenzen gut übereinstimmen. Das Verfahren kann erweitert werden, um zusätzliche Informationen zu berücksichtigen, wie etwa die relative Position anatomischer Strukturen sowie deren Form. Es wird gezeigt, wie diese Erweiterung zur automatischen Segmentierung eines Hirnes verwendet werden kann. KW - Taufliege KW - Gehirn KW - Segmentierung KW - Bildverarbeitung KW - Drosophila KW - Segmentierung KW - Kantenerkennung KW - Statistik KW - Bildverarbeitung KW - Drosophila KW - segmentation KW - EdgeDetection KW - statistics KW - ImageProcessing Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-15518 ER -