TY - THES A1 - Eidel, Matthias T. A. M. T1 - Training Effects of a Tactile Brain-Computer Interface System During Prolonged Use by Healthy And Motor-Impaired People T1 - Trainingseffekte eines Taktilen Brain-Computer Interface Systems bei längerer Nutzung von gesunden sowie motorisch eingeschränkten Personen N2 - Background - Brain-Computer Interfaces (BCI) enable their users to interact and communicate with the environment without requiring intact muscle control. To this end, brain activity is directly measured, digitized and interpreted by the computer. Thus, BCIs may be a valuable tool to assist severely or even completely paralysed patients. Many BCIs, however, rely on neurophysiological potentials evoked by visual stimulation, which can result in usability issues among patients with impaired vision or gaze control. Because of this, several non-visual BCI paradigms have been developed. Most notably, a recent study revealed promising results from a tactile BCI for wheelchair control. In this multi-session approach, healthy participants used the BCI to navigate a simulated wheelchair through a virtual apartment, which revealed not only that the BCI could be operated highly efficiently, but also that it could be trained over five sessions. The present thesis continues the research on this paradigm in order to - confirm its previously reported high performance levels and trainability - reveal the underlying factors responsible for observed performance increases - establish its feasibility among potential impaired end-users Methods - To approach these goals, three studies were conducted with both healthy participants and patients with amyotrophic lateral sclerosis (ALS). Brain activity during BCI operation was recorded via electroencephalography (EEG) and interpreted using a machine learning-based linear classifier. Wheelchair navigation was executed according to the classification results and visualized on a monitor. For offline statistical analysis, neurophysiological features were extracted from EEG data. Subjective data on usability were collected from all participants. Two specialized experiments were conducted to identify factors for training. Results and Discussion - Healthy participants: Results revealed positive effects of training on BCI performances and their underlying neurophysiological potentials. The paradigm was confirmed to be feasible and (for a non-visual BCI) highly efficient for most participants. However, some had to be excluded from analysis of the training effects because they could not achieve meaningful BCI control. Increased somatosensory sensitivity was identified as a possible mediator for training-related performance improvements. Participants with ALS: Out of seven patients with various stages of ALS, five could operate the BCI with accuracies significantly above chance level. Another ALS patient in a state of near-complete paralysis trained with the BCI for several months. Although no effects of training were observed, he was consistently able to operate the system above chance level. Subjective data regarding workload, satisfaction and other parameters were reported. Significance - The tactile BCI was evaluated on the example of wheelchair control. In the future, it could help impaired patients to regain some lost mobility and self-sufficiency. Further, it has the potential to be adapted to other purposes, including communication. Once visual BCIs and other assistive technologies fail for patients with (progressive) motor impairments, vision-independent paradigms such as the tactile BCI may be among the last remaining alternatives to interact with the environment. The present thesis has strongly confirmed the general feasibility of the tactile paradigm for healthy participants and provides first clues about the underlying factors of training. More importantly, the BCI was established among potential end-users with ALS, providing essential external validity. N2 - Hintergrund - Brain-Computer Interfaces (BCI) ermöglichen ihren Benutzern die Interaktion und Kommunikation mit der Außenwelt, ohne dabei die Funktionstüchtigkeit der Muskeln voraus zu setzen. Zu diesem Zweck wird die Gehirnaktivität vom Computer direkt gemessen, digitalisiert und schließlich interpretiert. BCIs könnten daher eine wertvolle Methode sein, schwer körperlich beeinträchtigten oder sogar vollständig gelähmten Patienten zu assistieren. Viele BCI Ansätze basieren allerdings auf neurophysiologischen Potentialen, welche mittels visueller Stimulation evoziert werden. Dies kann zur Folge haben, dass das BCI von Patienten mit Sehbehinderung oder fehlender Kontrolle über die eigene Blickrichtung nicht erfolgreich benutzt werden kann. Deshalb wurden bereits einige nicht-visuelle BCI Paradigmen entwickelt. Insbesondere eine aktuelle Studie über ein taktiles BCI zur Rollstuhlkontrolle lieferte vielversprechende Ergebnisse: In fünf Trainingssitzungen navigierten gesunde Studienteilnehmer per BCI einen simulierten Rollstuhl durch eine virtuelle Wohnung. Hierbei konnte gezeigt werden, dass das BCI System nicht nur sehr effizient genutzt werden konnte, sondern auch, dass sich die Kontrolle durch das Training über mehrere Sitzungen verbesserte. Die vorliegende Dissertation befasst sich mit der weiterführenden Erforschung eben dieses Paradigmas, insbesondere mit den Zielen: . die zuvor berichtete hohe Performanz und Trainierbarkeit zu bestätigen . aufzuklären, welche Faktoren der Steigerung der BCI-Leistung zugrunde liegen . die Anwendbarkeit des Paradigmas bei beeinträchtigten Endnutzern zu etablieren Methoden - Um diese Ziele zu erreichen wurden drei Studien sowohl mit gesunden als auch mit Teilnehmern mit amyotropher Lateralsklerose (ALS) durchgeführt. Während der BCI-Nutzung wurde die Gehirnaktivität per Elektroenzephalographie (EEG) aufgezeichnet und von einem linearen Klassifikator (basierend auf Maschinenlernverfahren) interpretiert. Die Navigation des Rollstuhls wurde entsprechend der Ergebnisse des Klassifikators umgesetzt und auf einem Bildschirm visualisiert. Zur späteren statistischen Analyse wurden aus den EEG Daten neurophysiologische Merkmale extrahiert. Zudem wurden Fragebogendaten zur Nutzbarkeit des Systems von allen Teilnehmern erhoben. Zwei Experimente zur Identifizierung von Trainingsfaktoren wurden durchgeführt. Ergebnisse und Diskussion - Gesunde Teilnehmer: Die Ergebnisse zeigten positive Effekte des Trainings auf die BCI Performanz und deren zugrundeliegenden neurophysiologischen Potentiale. Es konnte bestätigt werden, dass das Paradigma anwendbar und für die meisten Teilnehmer hocheffizient nutzbar war (im Vergleich zu anderen nicht-visuellen Ansätzen). Einige Teilnehmer mussten jedoch von der Analyse der Trainingseffekte ausgeschlossen werden, da sie keine ausreichende Kontrolle über das BCI ausüben konnten. Eine Steigerung der somatosensorischen Empfindlichkeitsschwelle wurde als ein möglicher Faktor für die Trainierbarkeit und Verbesserung der Performanz identifiziert. Teilnehmer mit ALS: Fünf von sieben Teilnehmern in verschiedenen ALS-Stadien konnten das BCI signifikant überzufällig benutzen. Ein weiterer ALS Patient mit nahezu vollständiger Lähmung trainierte den Umgang mit dem BCI über mehrere Monate hinweg. Er war beständig in der Lage, das System mit Genauigkeiten über dem Zufallsniveau zu steuern, jedoch konnten keine Trainingseffekte gezeigt werden. Fragebogendaten zur subjektiven Arbeitsbelastung, Zufriedenheit und einigen weiteren Parametern wurden ausführlich berichtet. Bedeutung - Das taktile BCI wurde am Beispiel der Rollstuhlkontrolle evaluiert. In naher Zukunft könnte es beeinträchtigten Patienten helfen, ihre verlorene Mobilität und Selbstständigkeit zurück zu erlangen. Zudem kann es für viele weitere Zwecke adaptiert werden, insbesondere zur Kommunikation. Sobald visuelle BCIs oder andere technische Hilfsmittel bei Patienten mit (progressiver) motorischer Lähmung scheitern, könnten nicht-visuelle Paradigmen wie das taktile BCI zu den letzten verbleibenden Alternativen gehören, die eine Interaktion mit der Außenwelt noch erlauben. Die vorliegende Arbeit hat die grundsätzliche Anwendbarkeit des taktilen Paradigmas für gesunde Benutzer klar bestätigt. Zudem liefert sie erste Hinweise darauf, welche Faktoren den beobachteten Trainingseffekten zugrunde liegen könnten. Das BCI hat sich zudem bei potentiellen End-Nutzern mit ALS bewährt, was der externen Validität der Studienergebnisse enorm zuträgt. KW - Myatrophische Lateralsklerose KW - Gehirn-Computer-Schnittstelle KW - Elektroencephalographie KW - Rollstuhl KW - Brain-Computer Interface KW - Amyotrophic Lateral Sclerosis KW - Wheelchair Navigation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-208511 ER - TY - THES A1 - Pfitzner, Christian T1 - Visual Human Body Weight Estimation with Focus on Clinical Applications T1 - Optische Körpergewichtsschätzung für medizinische Anwendungen N2 - It is the aim of this thesis to present a visual body weight estimation, which is suitable for medical applications. A typical scenario where the estimation of the body weight is essential, is the emergency treatment of stroke patients: In case of an ischemic stroke, the patient has to receive a body weight adapted drug, to solve a blood clot in a vessel. The accuracy of the estimated weight influences the outcome of the therapy directly. However, the treatment has to start as early as possible after the arrival at a trauma room, to provide sufficient treatment. Weighing a patient takes time, and the patient has to be moved. Furthermore, patients are often not able to communicate a value for their body weight due to their stroke symptoms. Therefore, it is state of the art that physicians guess the body weight. A patient receiving a too low dose has an increased risk that the blood clot does not dissolve and brain tissue is permanently damaged. Today, about one-third gets an insufficient dosage. In contrast to that, an overdose can cause bleedings and further complications. Physicians are aware of this issue, but a reliable alternative is missing. The thesis presents state-of-the-art principles and devices for the measurement and estimation of body weight in the context of medical applications. While scales are common and available at a hospital, the process of weighing takes too long and can hardly be integrated into the process of stroke treatment. Sensor systems and algorithms are presented in the section for related work and provide an overview of different approaches. The here presented system -- called Libra3D -- consists of a computer installed in a real trauma room, as well as visual sensors integrated into the ceiling. For the estimation of the body weight, the patient is on a stretcher which is placed in the field of view of the sensors. The three sensors -- two RGB-D and a thermal camera -- are calibrated intrinsically and extrinsically. Also, algorithms for sensor fusion are presented to align the data from all sensors which is the base for a reliable segmentation of the patient. A combination of state-of-the-art image and point cloud algorithms is used to localize the patient on the stretcher. The challenges in the scenario with the patient on the bed is the dynamic environment, including other people or medical devices in the field of view. After the successful segmentation, a set of hand-crafted features is extracted from the patient's point cloud. These features rely on geometric and statistical values and provide a robust input to a subsequent machine learning approach. The final estimation is done with a previously trained artificial neural network. The experiment section offers different configurations of the previously extracted feature vector. Additionally, the here presented approach is compared to state-of-the-art methods; the patient's own assessment, the physician's guess, and an anthropometric estimation. Besides the patient's own estimation, Libra3D outperforms all state-of-the-art estimation methods: 95 percent of all patients are estimated with a relative error of less than 10 percent to ground truth body weight. It takes only a minimal amount of time for the measurement, and the approach can easily be integrated into the treatment of stroke patients, while physicians are not hindered. Furthermore, the section for experiments demonstrates two additional applications: The extracted features can also be used to estimate the body weight of people standing, or even walking in front of a 3D camera. Also, it is possible to determine or classify the BMI of a subject on a stretcher. A potential application for this approach is the reduction of the radiation dose of patients being exposed to X-rays during a CT examination. During the time of this thesis, several data sets were recorded. These data sets contain the ground truth body weight, as well as the data from the sensors. They are available for the collaboration in the field of body weight estimation for medical applications. N2 - Diese Arbeit zeigt eine optische Körpergewichtsschätzung, welche für medizinische Anwendungen geeignet ist. Ein gängiges Szenario, in dem eine Gewichtsschätzung benötigt wird, ist die Notfallbehandlung von Schlaganfallpatienten: Falls ein ischämischer Schlaganfall vorliegt, erhält der Patient ein auf das Körpergewicht abgestimmtes Medikament, um einen Thrombus in einem Gefäß aufzulösen. Die Genauigkeit der Gewichtsschätzung hat direkten Einfluss auf den Erfolg der Behandlung. Hinzu kommt, dass die Behandlung so schnell wie möglich nach der Ankunft im Krankenhaus erfolgen muss, um eine erfolgreiche Behandlung zu garantieren. Das Wiegen eines Patienten ist zeitaufwändig und der Patient müsste hierfür bewegt werden. Des Weiteren können viele Patienten aufgrund des Schlaganfalls nicht ihr eigenes Gewicht mitteilen. Daher ist es heutzutage üblich, dass Ärzte das Gewicht schätzen. Erhält ein Patient eine zu geringe Dosis, steigt das Risiko, dass sich der Thrombus nicht auflöst und das Gehirngewebe dauerhaft geschädigt bleibt. Eine Überdosis kann dagegen zu Blutungen und weiteren Komplikationen führen. Ein Drittel der Patienten erhält heutzutage eine unzureichende Dosis. Ärzte sind sich dessen bewusst, aber derzeit gibt es kein alternatives Vorgehen. Diese Arbeit präsentiert Elemente und Geräte zur Messung und Schätzung des Körpergewichts, die im medizinischen Umfeld verwendet werden. Zwar sind Waagen im Krankenhaus üblich, aufgrund des engen Zeitfensters für die Behandlung können sie aber nur schlecht in den Behandlungsablauf von Schlaganfallpatienten integriert werden. Der Abschnitt zum Stand der Technik zeigt verschiedene Sensorsysteme und Algorithmen. Das hier gezeigte System -- genannt Libra3D -- besteht aus einem Computer im Behandlungsraum, sowie den in der Decke integrierten optischen Sensoren. Für die Gewichtsschätzung befindet sich der Patient auf einer Liege im Blickfeld der Sensoren. Die drei Sensoren -- zwei RGB-D- und einer Wärmebildkamera -- sind intrinsisch und extrinsisch kalibriert. Des Weiteren werden Algorithmen zur Sensorfusion vorgestellt, welche die Daten für eine erfolgreiche Segmentierung des Patienten zusammenführen. Eine Kombination aus verschiedenen gängigen Bildverarbeitungs- und Punktwolken-Algorithmen lokalisiert den Patienten auf der Liege. Die Herausforderung in diesem Szenario mit dem Patienten auf dem Bett sind ständige Veränderungen, darunter auch andere Personen oder medizinische Geräte im Sichtfeld. Nach der erfolgreichen Segmentierung werden Merkmale von der Punktwolke des Patienten extrahiert. Diese Merkmale beruhen auf geometrischen und statistischen Eigenschaften und bieten robuste Werte für das nachfolgende maschinelle Lernverfahren. Die Schätzung des Gewichts basiert letztlich auf einem zuvor trainierten künstlichen neuronalen Netz. Das Kapitel zu den Experimenten zeigt verschiedene Kombinationen von Werten aus dem Merkmalsvektor. Zusätzlich wird der Ansatz mit Methoden aus dem Stand der Technik verglichen: der Schätzung des Patienten, des Arztes, und einer anthropometrischen Schätzung. Bis auf die eigene Schätzung des Patienten übertrifft Libra3D hierbei alle anderen Methoden: 95 Prozent aller Schätzungen weisen einen relativen Fehler von weniger als 10 Prozent zum realen Körpergewicht auf. Dabei benötigt das System wenig Zeit für eine Messung und kann einfach in den Behandlungsablauf von Schlaganfallpatienten integriert werden, ohne Ärzte zu behindern. Des Weiteren zeigt der Abschnitt für Experimente zwei weitere Anwendungen: Die extrahierten Merkmale können dazu verwendet werden das Gewicht von stehenden und auch laufenden Personen zu schätzen, die sich vor einer 3D-Kamera befinden. Darüber hinaus ist es auch möglich den BMI von Patienten auf einer Liege zu bestimmen. Diese kann die Strahlenexposition bei CT-Untersuchungen beispielsweise verringern. Während dieser Dissertation sind einige Datensätze entstanden. Sie enthalten das reale Gewicht, sowie die dazugehörigen Sensordaten. Die Datensätze sind für die Zusammenarbeit im Bereich der Körpergewichtsschätzung für medizinische Anwendungen verfügbar. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 18 KW - Punktwolke KW - Maschinelles Lernen KW - Schlaganfall KW - Körpergewicht KW - Bildverarbeitung KW - 3D Point Cloud Processing KW - Image Processing KW - Stroke KW - Human Body Weight KW - Kinect KW - Machine Learning KW - Sensor Fusion KW - Segmentation KW - Perception Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174842 SN - 978-3-945459-27-0 (online) ER - TY - THES A1 - Koch, Rainer T1 - Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects T1 - Sensorfusion zur präzisen Kartierung von transparenten und reflektierender Objekten N2 - Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet. There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping. Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks. The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements. Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the last chapter summarizes the results and proposes suggestions for future work. N2 - Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen. Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange. Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet, da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile. Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind. Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes. Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren. Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans- parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht. Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig. Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann. Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 16 KW - laserscanner KW - mapping KW - robotic KW - laser scanner KW - sensor fusion KW - transparent KW - specular reflective Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163462 SN - 978-3-945459-25-6 ER -