TY - THES A1 - Werner, Lennart T1 - Terrain Mapping for Autonomous Navigation of Lunar Rovers T1 - Geländekartierung für die autonome Navigation von Mondrovern N2 - Autonomous mobile robots operating in unknown terrain have to guide their drive decisions through local perception. Local mapping and traversability analysis is essential for safe rover operation and low level locomotion. This thesis deals with the challenge of building a local, robot centric map from ultra short baseline stereo imagery for height and traversability estimation. Several grid-based, incremental mapping algorithms are compared and evaluated in a multi size, multi resolution framework. A new, covariance based mapping update is introduced, which is capable of detecting sub- cellsize obstacles and abstracts the terrain of one cell as a first order surface. The presented mapping setup is capable of producing reliable ter- rain and traversability estimates under the conditions expected for the Cooperative Autonomous Distributed Robotic Exploreration (CADRE) mission. Algorithmic- and software architecture design targets high reliability and efficiency for meeting the tight constraints implied by CADRE’s small on-board embedded CPU. Extensive evaluations are conducted to find possible edge-case scenar- ios in the operating envelope of the map and to confirm performance parameters. The research in this thesis targets the CADRE mission, but is applicable to any form of mobile robotics which require height- and traversability mapping. N2 - Autonome mobile Roboter, die in unkartiertem Terrain operieren, müs- sen ihre Fahrentscheidungen durch lokale Wahrnehmung steuern. Lo- kale Kartierung und Passierbarkeitsanalysen sind der Schlüssel für ei- nen sicheren Betrieb des Roboters und die Fortbewegung. Diese Arbeit beschäftigt sich mit der Herausforderung, eine lokale, roboterzentrierte Karte für Höhen- und Passierbarkeitsanalysen aus Stereobildern zu erstellen. Mehrere inkrementelle Kartierungsalgorithmen werden verglichen und in einem Framework mit verschiedenen Layern für Größen und Auflö- sungen implementiert und verglichen. Ein neues, kovarianzbasiertes Kartierungsupdate wird eingeführt, das in der Lage ist, Hindernisse unterhalb der Zellgröße zu erkennen. Dieser Algorithmus abstrahiert die Umgebung einer Zelle als Oberfläche erster Ordnung. Das vorgestellte Kartierungssystem ist in der Lage, zuverlässige Gelände- und Durchquerbarkeitsschätzungen unter den CADRE Bedingungen zu liefern. Das Design der Algorithmen- und Software-Architektur zielt auf hohe Zuverlässigkeit und Effizienz ab, um die engen Vorgaben der eingebet- teten CPUs an Bord zu wahren. Umfassende Evaluierungen werden durchgeführt, um mögliche Grenz- szenarien im Betriebsbereich der Karte zu finden und die Leistungs- parameter zu bestätigen. Die Forschung in dieser Arbeit zielt auf die CADRE-Mission ab, ist aber auf jede Form der mobilen Robotik an- wendbar, die Höhen- und Durchquerbarkeitsschätzungen erfordert. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 29 KW - Mondfahrzeug KW - mapping KW - navigation KW - hazard avoidance KW - lunar rover Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-358268 ER - TY - THES A1 - Koch, Rainer T1 - Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects T1 - Sensorfusion zur präzisen Kartierung von transparenten und reflektierender Objekten N2 - Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet. There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping. Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks. The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements. Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the last chapter summarizes the results and proposes suggestions for future work. N2 - Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen. Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange. Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet, da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile. Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind. Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes. Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren. Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans- parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht. Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig. Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann. Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 16 KW - laserscanner KW - mapping KW - robotic KW - laser scanner KW - sensor fusion KW - transparent KW - specular reflective Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163462 SN - 978-3-945459-25-6 ER - TY - JOUR A1 - Elseberg, Jan A1 - Borrmann, Dorit A1 - Nüchter, Andreas T1 - Algorithmic Solutions for Computing Precise Maximum Likelihood 3D Point Clouds from Mobile Laser Scanning Platforms JF - Remote Sensing N2 - Mobile laser scanning puts high requirements on the accuracy of the positioning systems and the calibration of the measurement system. We present a novel algorithmic approach for calibration with the goal of improving the measurement accuracy of mobile laser scanners. We describe a general framework for calibrating mobile sensor platforms that estimates all configuration parameters for any arrangement of positioning sensors, including odometry. In addition, we present a novel semi-rigid Simultaneous Localization and Mapping (SLAM) algorithm that corrects the vehicle position at every point in time along its trajectory, while simultaneously improving the quality and precision of the entire acquired point cloud. Using this algorithm, the temporary failure of accurate external positioning systems or the lack thereof can be compensated for. We demonstrate the capabilities of the two newly proposed algorithms on a wide variety of datasets. KW - mapping KW - calibration KW - non-rigid registration KW - mobile laser scanning KW - algorithms Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-130478 VL - 5 IS - 11 ER - TY - JOUR A1 - Du, Shitong A1 - Lauterbach, Helge A. A1 - Li, Xuyou A1 - Demisse, Girum G. A1 - Borrmann, Dorit A1 - Nüchter, Andreas T1 - Curvefusion — A Method for Combining Estimated Trajectories with Applications to SLAM and Time-Calibration JF - Sensors N2 - Mapping and localization of mobile robots in an unknown environment are essential for most high-level operations like autonomous navigation or exploration. This paper presents a novel approach for combining estimated trajectories, namely curvefusion. The robot used in the experiments is equipped with a horizontally mounted 2D profiler, a constantly spinning 3D laser scanner and a GPS module. The proposed algorithm first combines trajectories from different sensors to optimize poses of the planar three degrees of freedom (DoF) trajectory, which is then fed into continuous-time simultaneous localization and mapping (SLAM) to further improve the trajectory. While state-of-the-art multi-sensor fusion methods mainly focus on probabilistic methods, our approach instead adopts a deformation-based method to optimize poses. To this end, a similarity metric for curved shapes is introduced into the robotics community to fuse the estimated trajectories. Additionally, a shape-based point correspondence estimation method is applied to the multi-sensor time calibration. Experiments show that the proposed fusion method can achieve relatively better accuracy, even if the error of the trajectory before fusion is large, which demonstrates that our method can still maintain a certain degree of accuracy in an environment where typical pose estimation methods have poor performance. In addition, the proposed time-calibration method also achieves high accuracy in estimating point correspondences. KW - mapping KW - continuous-time SLAM KW - deformation-based method KW - time calibration Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219988 SN - 1424-8220 VL - 20 IS - 23 ER -