TY - THES A1 - Sun, Kaipeng T1 - Six Degrees of Freedom Object Pose Estimation with Fusion Data from a Time-of-flight Camera and a Color Camera T1 - 6DOF Posenschätzung durch Datenfusion einer Time-of-Flight-Kamera und einer Farbkamera N2 - Object six Degrees of Freedom (6DOF) pose estimation is a fundamental problem in many practical robotic applications, where the target or an obstacle with a simple or complex shape can move fast in cluttered environments. In this thesis, a 6DOF pose estimation algorithm is developed based on the fused data from a time-of-flight camera and a color camera. The algorithm is divided into two stages, an annealed particle filter based coarse pose estimation stage and a gradient decent based accurate pose optimization stage. In the first stage, each particle is evaluated with sparse representation. In this stage, the large inter-frame motion of the target can be well handled. In the second stage, the range data based conventional Iterative Closest Point is extended by incorporating the target appearance information and used for calculating the accurate pose by refining the coarse estimate from the first stage. For dealing with significant illumination variations during the tracking, spherical harmonic illumination modeling is investigated and integrated into both stages. The robustness and accuracy of the proposed algorithm are demonstrated through experiments on various objects in both indoor and outdoor environments. Moreover, real-time performance can be achieved with graphics processing unit acceleration. N2 - Die 6DOF Posenschätzung von Objekten ist ein fundamentales Problem in vielen praktischen Robotikanwendungen, bei denen sich ein Ziel- oder Hindernisobjekt, einfacher oder komplexer Form, schnell in einer unstrukturierten schwierigen Umgebung bewegt. In dieser Forschungsarbeit wird zur Lösung des Problem ein 6DOF Posenschätzer entwickelt, der auf der Fusion von Daten einer Time-of-Flight-Kamera und einer Farbkamera beruht. Der Algorithmus ist in zwei Phasen unterteilt, ein Annealed Partikel-Filter bestimmt eine grobe Posenschätzung, welche mittels eines Gradientenverfahrens in einer zweiten Phase optimiert wird. In der ersten Phase wird jeder Partikel mittels sparse represenation ausgewertet, auf diese Weise kann eine große Inter-Frame-Bewegung des Zielobjektes gut behandelt werden. In der zweiten Phase wird die genaue Pose des Zielobjektes mittels des konventionellen, auf Entfernungsdaten beruhenden, Iterative Closest Point-Algorithmus aus der groben Schätzung der ersten Stufe berechnet. Der Algorithmus wurde dabei erweitert, so dass auch Informationen über das äußere Erscheinungsbild des Zielobjektes verwendet werden. Zur Kompensation von signifikanten Beleuchtungsschwankungen während des Trackings, wurde eine Modellierung der Ausleuchtung mittels Kugelflächenfunktionen erforscht und in beide Stufen der Posenschätzung integriert. Die Leistungsfähigkeit, Robustheit und Genauigkeit des entwickelten Algorithmus wurde in Experimenten im Innen- und Außenbereich mit verschiedenen Zielobjekten gezeigt. Zudem konnte gezeigt werden, dass die Schätzung mit Hilfe von Grafikprozessoren in Echtzeit möglich ist. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 10 KW - Mustererkennung KW - Maschinelles Sehen KW - Sensor KW - 3D Vision KW - 6DOF Pose Estimation KW - Visual Tracking KW - Pattern Recognition KW - Computer Vision KW - 3D Sensor Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-105089 SN - 978-3-923959-97-6 ER - TY - THES A1 - Tzschichholz, Tristan T1 - Relative pose estimation of known rigid objects using a novel approach to high-level PMD-/CCD- sensor data fusion with regard to applications in space T1 - Relative Lagebestimmung bekannter fester Objekte unter Verwendung eines neuen Ansatzes zur anwendungsnahen Sensordatenfusion einer PMD- und CCD-Kamera hinsichtlich ihrer Anwendungen im Weltraum N2 - In this work, a novel method for estimating the relative pose of a known object is presented, which relies on an application-specific data fusion process. A PMD-sensor in conjunction with a CCD-sensor is used to perform the pose estimation. Furthermore, the work provides a method for extending the measurement range of the PMD sensor along with the necessary calibration methodology. Finally, extensive measurements on a very accurate Rendezvous and Docking testbed are made to evaluate the performance, what includes a detailed discussion of lighting conditions. N2 - In der Arbeit wird eine neuartige Methode zur Bestimmung der relativen Lage eines bekannten Objektes vorgestellt, welche auf einem anwendungsspezifischen Datenfusionsprozess basiert. Dabei wird ein PMD-Sensor zusammen mit einem CCD-Sensor benutzt, um die Lagebestimmung vorzunehmen. Darüber hinaus liefert die Arbeit eine Methode, den Messbereich des PMD-Sensors zu erhöhen zusammen mit der notwendigen Kalibrierungsmethoden. Schließlich werden detailierte und weitreichende Messungen aus einer sehr genauen Rendezvous und Docking-Testanlage gemacht, um die Leistungsfähigkeit des Algorithmus zu demonstrieren, was auch eine detaillierte Behandung der Beleuchtungsbedingungen einschließt. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 8 KW - Bildverarbeitung KW - PMD KW - phase unwrapping KW - rendezvous and docking KW - data fusion KW - pose estimation KW - Sensor KW - Raumfahrt KW - Image Processing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-103918 SN - 978-3-923959-95-2 SN - 1868-7474 ER -