TY - THES A1 - Gutbrod, Heidrun T1 - Untersuchungen zur genetischen Kontrolle des Melanom-induzierenden Gens von Xiphophorus T1 - Analyses for the genetic control of the melanoma inducing gene of Xiphophorus N2 - Die Melanomentstehung bei Rückkreuzungshybriden des Zahnkarpfens Xiphophorus wird durch die Überexpression des geschlechtschromosomalen Xmrk Onkogens verursacht. Im Wildtyp ist die Aktivität von Xmrk durch einen autosomalen Regulatorlocus R unterdrückt. Ziel dieser Arbeit war es, Erkenntnisse über die Expressionsregulation des Xmrk Onkogens zu gewinnen. Dazu wurden einerseits Experimente zur Kartierung von R durchgeführt, die eine Positionsklonierung des Gens erlauben würden. Zum anderen konnte durch die Analyse verschiedener Xmrk Mutanten ein genregulatorisches Element im Xmrk Onkogen identifiziert werden. N2 - The development of melanomas in Xiphophorus backcross hybrids is caused by overexpression of the sex linked oncogene Xmrk. The activity of Xmrk is repressed in wildtype fish by an autosomal regulatory locus, R. Aim of this study was to get insights into the regulation of the expression of the Xmrk oncogene. The work included experiments for mapping of R which is a prerequisite for a positional cloning strategy. The analysis of several Xmrk mutants led to the identification of a gene regulatory element in the Xmrk oncogene. KW - Schwertkärpfling KW - Melanom KW - Molekulargenetik KW - Xiphophorus KW - Xmrk KW - Rezeptortyrosinkinase KW - Fisch KW - AP-PCR KW - AFLP KW - Kartierung KW - Xiphophorus KW - Xmrk KW - receptor tyrosine kinase KW - fishes KW - AP-PCR KW - AFLP KW - mapping Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-1370 ER - TY - THES A1 - Kaltwasser, Christoph T1 - Rekonstruktion und Simulation der Ausbreitung und Rückbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen Lösung des Inversen Problems der Elektrokardiographie T1 - Reconstruction and simulation of the electric depolarization and repolarization in the human heart N2 - Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen. N2 - The electrophysiological processes that occur during cardiac depolarization and repolarization can be interpreted via 12-channel ECG only in a limited manner. This is due to inhomogeneities in the cardiac and thoracic electric conductivity and the attenuation of the electric signals in the body. Invasive cardiac measurements can avoid these problems but are expensive and not free of risk for the patient. In this work therefore a method of non-invasive electrocardiographic imaging was established which permits the reconstruction of cardiac electrophysiological processes using exclusively information obtained by non-invasive methods (MR-imaging, electrocardiographic mapping). Using anatomic information from MR-images of the patient’s heart and chest, a patient-individual model of electric conductivity could be created (finite-element method). Numerical algorithms were used to solve the inverse problem of electrocardiography, i.e. finding cardiac potential distributions that explain the measured surface potential distribution. In two healthy volunteers as well as in 7 patients with different cardiac pathologies, reconstructions of epicardial potentials and transmembrane voltages were performed. Specific electrophysiological abnormalities (decreased electric activity, polarization reversal, delayed depolarization and atypical repolarization patterns) could be detected in the proximity of myocardial scars. To optimize reconstruction algorithms and regularization methods, cardiac potentials were also simulated using a cellular automaton and the patient individual conductivity model. This study shows that the reconstruction of cardiac electrophysiology is feasible with this method and that myocardial scars and atypical patterns of depolarization and repolarization can be detected. By further improving the method and after a process of validation, clinically relevant data might be obtained. KW - Elektrophysiologie KW - Herzmuskelfunktion KW - Elektrisches Potenzial KW - Rekonstruktion KW - NMR-Tomographie KW - Computersimulation KW - Depolarisation KW - Repolarisation KW - Elektrokardiologie KW - Vorwärtsproblem KW - nichtinvasive elektrokardiographische Bildgebung KW - ECGI KW - NICE KW - Inverses Problem KW - electrocardiology KW - non-invasive electrocardiographic imaging KW - ECGI KW - NICE KW - NMR-tomography KW - mapping KW - inverse problem Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26316 ER - TY - THES A1 - Eskandar, Kevin T1 - Langzeitdepressions-ähnliche Minderung kortikospinaler Exzitabilität durch ein assoziatives Paarstimulationsprotokoll : Methodische Untersuchungen und neurophysiologisches Mapping T1 - Long-term depression-like reduction of corticospinal excitability by the use of a paired associative stimulation protocol: Systematic examination and neurophysiologic mapping N2 - Neuronale Plastizität ist die Voraussetzung für Lernen und Erinnerung. Sie wurde in einer Reihe von Experimenten am Menschen und am Tier eindrucksvoll demonstriert. Das zugrunde liegende Prinzip neuronaler Plastizität ist die Modulierbarkeit synaptischer Übertragungseffizienz. Diese kann im Sinne einer Langzeitpotenzierung (LTP) sowohl hinauf als auch im Sinne einer Langzeitdepression (LTD) herab reguliert werden. Von besonderem Interesse im Allgemeinen und für diese Arbeit ist das Prinzip der assoziativen LTD: Wirkt auf das postsynaptische Neuron zunächst ein starker depolarisierender Reiz und danach in enger zeitlicher Kopplung ein schwacher nicht depolarisierender Reiz so kommt es in der Folge zu einer Erniedrigung der synaptischen Übertragungseffizienz. Für den menschlichen Motorkortex wurde ein experimentelles Protokoll entwickelt, dass mit Hilfe etablierter neurophysiologischer Methoden eine Veränderung der synaptischen Übertragungseffizienz im Sinne eines LTD-ähnlichen Phänomens bewirkt: beinahe synchrone und repetitive Kopplung peripherer N. medianus Stimulation (entspricht dem nicht depolarisierenden Reiz) und kontralateraler transkranieller Magnetstimulation (entspricht dem depolarisierenden Reiz) führt zu einer signifikanten Amplitudenreduktion der magnetisch evozierbaren Potentiale (MEP) des M. abductor pollicis brevis (APB). Voraussetzung für die Effektivität der assoziativen Paarstimulation (PAS-Protokoll) ist, dass der depolarisierende Reiz wenige Millisekunden vor dem nicht depolarisierenden Reiz auf die synaptischen Verbindungen des zentralen APB-Repräsentationsareals einwirkt. Das Ziel dieser Arbeit war es zunächst durch Optimierung der im PAS-Protokoll etablierten Stimulationsparameter die Robustheit und das Ausmaß der erzeugten Exzitabilitätsminderung im APB-Kortexareals zu steigern. Untersucht wurde erstens der Einfluss der Steigerung der Frequenz, sowie zweitens der absoluten Zahl applizierter Paarreize. Drittens wurde untersucht ob ein optimaler Wirkzeitabstand zwischen den beiden assoziativen Stimuli besteht: Eine Synchronisierung des Intervalls zwischen den beiden Paarreizen durch Normierung auf die individuelle Körperlänge führt zu einem konstanten Wirkzeitabstand innerhalb der synaptischen Verbindungen des zentralen APB-Repräsentationsareales. Dies erlaubt eine systematische Untersuchung des optimalen Wirkzeitabstandes der assoziativen Paarreize unabhängig von der individuellen Körperlänge. Mit einem so optimierten PAS-Protokoll wurde der zweite Teil der Arbeit durchgeführt: In den eben beschriebenen Vorversuchen wurde die Änderung der kortikomuskulären Exzitabilität durch Vergleich der durchschnittlichen MEP-Amplituden des Punktes der Schädeldecke, von dem aus eine maximale Reizantwort im Zielmuskel erzeugbar war bestimmt. Um jedoch eine möglichst umfassende Aussage über die Veränderung kortikomuskulärer Exzitabilität treffen zu können, wurde ein etabliertes Kartierungsverfahren verwendet, das eine Darstellung des APB-Repräsentationsareales als zweidimensionale Karte ermöglicht. Mit Hilfe dieser Mapping-Untersuchung sind Aussagen über die räumliche Dimension der Veränderungen kortikomuskulärer Exzitabilität möglich, die über den einfachen Vergleich der an einem Punkt gewonnenen Amplituden hinausgehen. In dieser Arbeit gelang die Induktion kortikaler Plastizität im Sinne assoziativer LTD-ähnlicher Plastizität. Aus unseren Ergebnissen lässt sich ableiten, dass weder durch eine Erhöhung der Frequenz noch der Anzahl der Paarstimuli eine wesentliche Steigerung des LTD-ähnlichen Phänomens zu erzeugen ist. Diesen Umstand führen wir im Wesentlichen auf eine Art Grenzwert der Modulierbarkeit kortikomuskulärer Exzitabilität zurück. Die grundsätzliche Möglichkeit, dass mentale Konzentration auf die in das PAS-Protokoll involvierten Muskeln eine bedeutsamere Rolle für das Ausmaß der induzierten Plastizität spielen könnte als die Intensität der assoziativen Induktion, wurde erörtert. Durch einen Normierungsprozess auf die individuelle Körpergröße kristallisiert sich ein definiertes Fenster der zeitlichen Kopplung der beiden assoziativen Reize mit optimaler LTD-ähnlicher Plastizität heraus. Bei selektiver Betrachtung einer Subgruppe der Mapping-Untersuchung ergaben sich Hinweise darauf, dass die räumliche Verteilung der Exzitabilität durch ein optimiertes PAS-Protokoll verändert wird. Diese Hinweise sind mit der Annahme zu vereinbaren, dass durch ein exzitabilitätsminderndes PAS-Protokoll aktive Synapsen deaktiviert werden können. Mögliche Ursachen für die vergleichsweise schlechte Reproduzierbarkeit der Plastizitätsergebnisse bei kumulativer Betrachtung aller Mapping-Experimente wurden diskutiert. N2 - Neuronal plasticity is the prerequisite for learning and memory. It was demonstrated impressively in a series of experiments on human beings and animals. The basic principle of neuronal plasticity is that the efficiency of synaptic transmission can be modulated. It can be increased as in a long-term potentiation (LTP) and decreased as in a long-term depression (LTD). The principle of associative LTD is of special interest in general and for this study: if at first a strong depolarizing stimulus affects the postsynaptic neuron and then only a short time later a weak non-depolarizing stimulus affects the postsynaptic neuron, the transmission efficiency will be decreased. An experimental protocol has been developed for the human motor cortex that, by means of established neurophysiologic methods, causes a modification of the efficiency of synaptic transmission in terms of an LTD-similar phenomenon: an almost synchronous and repetitive coupling of peripheral N. medianus stimulation (corresponds to the non-depolarizing stimulus) and contralateral magnetic stimulation (corresponds to the depolarizing stimulus) leads to a significant reduction in amplitude of the motor-evoked potentials (MEP) of the M. abductor pollicis brevis (APB). For the effectiveness of the paired associative stimulation it is necessary that the depolarizing stimulus affects the synaptic connections of the central APB-representation area only a few milliseconds before the non-depolarizing stimulus. Initially, the purpose of this study was to enhance the robustness and the extent of the generated reduction in excitability in the APB-cortex area by optimizing the stimulation parameter established in the PAS protocol. First of all, the influence of the increase in frequency was analysed and then secondly, the absolute number of applied pair stimuli. By scaling to the individual body length, a synchronization of the interval between both pair stimuli leads to a constant reaction time interval within the synaptic connection of the central APB representation area. Thirdly, it was examined if there is an optimal reaction time interval between both associative stimuli: by scaling to the individual body length, a synchronization of the interval between both pair stimuli leads to a constant reaction time interval within the synaptic connection of the central APB representation area. This allows a systematic examination of the optimal reaction time interval of the associative pair stimuli regardless of the individual body size. The second part of the study was carried out using such an optimized PAS-protocol. During the pre-experiments that have just been described, the modification of the cortico-muscular excitability was determined by means of comparison of the average MEP-amplitudes from the point of the brain pan where the maximum answer on stimulus in the destination muscle could be generated. In order to be able to make a comprehensive statement about the cortico-muscular excitability an established mapping procedure was used that makes it possible to depict the APB-representation area as a two-dimensional map. By means of this mapping-examination, statements concerning the spatial dimension of the modifications of cortico-muscular excitability can be made, which exceed the simple comparison of amplitudes that have been generated at a certain point. In this study, the induction of cortical plasticity was realized as in associative LTD-similar plasticity. From our results, it can be deduced that neither the increase in frequency nor the number of pair stimuli causes an essential increase of the LTD-similar phenomenon. In our opinion this is due to the fact that there is a kind of limit value in the modulating capacity of cortico-muscular excitability. There was a discussion whether it was possible in principle that the mental concentration on the muscles involved in the PAS-protocol might play a more important role for the extent of the induced plasticity than the intensity of the associative induction. By means of a standardization process to the individual body size it emerges that both associative stimuli have to follow immediately within a defined, narrow time for a ‘window of opportunity’. Looking at a subgroup of the mapping-examination in a selective way it came out that the spatial distribution of the excitability is being modified by an optimized PAS-Protocol. These hints coincide with the assumption that active synapses can be deactivated by means of a PAS-protocol, which minimizes the excitability. Regarding all mapping-experiments in a cumulative way, a discussion ensued about the possible reasons for the comparatively bad reproducibility of the plasticity results. KW - Mapping KW - Motorischer Cortex KW - Neuronale Plastizität KW - LTD KW - Langzeitdepression KW - assoziative Paarstimulation KW - neuronal plasticity KW - long-term depression KW - motor cortex KW - mapping KW - paired associative stimulation Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36245 ER - TY - JOUR A1 - Elseberg, Jan A1 - Borrmann, Dorit A1 - Nüchter, Andreas T1 - Algorithmic Solutions for Computing Precise Maximum Likelihood 3D Point Clouds from Mobile Laser Scanning Platforms JF - Remote Sensing N2 - Mobile laser scanning puts high requirements on the accuracy of the positioning systems and the calibration of the measurement system. We present a novel algorithmic approach for calibration with the goal of improving the measurement accuracy of mobile laser scanners. We describe a general framework for calibrating mobile sensor platforms that estimates all configuration parameters for any arrangement of positioning sensors, including odometry. In addition, we present a novel semi-rigid Simultaneous Localization and Mapping (SLAM) algorithm that corrects the vehicle position at every point in time along its trajectory, while simultaneously improving the quality and precision of the entire acquired point cloud. Using this algorithm, the temporary failure of accurate external positioning systems or the lack thereof can be compensated for. We demonstrate the capabilities of the two newly proposed algorithms on a wide variety of datasets. KW - mapping KW - calibration KW - non-rigid registration KW - mobile laser scanning KW - algorithms Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-130478 VL - 5 IS - 11 ER - TY - JOUR A1 - Asare-Kyei, Daniel A1 - Forkuor, Gerald A1 - Venus, Valentijn T1 - Modeling Flood Hazard Zones at the Sub-District Level with the Rational Model Integrated with GIS and Remote Sensing Approaches JF - Water N2 - Robust risk assessment requires accurate flood intensity area mapping to allow for the identification of populations and elements at risk. However, available flood maps in West Africa lack spatial variability while global datasets have resolutions too coarse to be relevant for local scale risk assessment. Consequently, local disaster managers are forced to use traditional methods such as watermarks on buildings and media reports to identify flood hazard areas. In this study, remote sensing and Geographic Information System (GIS) techniques were combined with hydrological and statistical models to delineate the spatial limits of flood hazard zones in selected communities in Ghana, Burkina Faso and Benin. The approach involves estimating peak runoff concentrations at different elevations and then applying statistical methods to develop a Flood Hazard Index (FHI). Results show that about half of the study areas fall into high intensity flood zones. Empirical validation using statistical confusion matrix and the principles of Participatory GIS show that flood hazard areas could be mapped at an accuracy ranging from 77% to 81%. This was supported with local expert knowledge which accurately classified 79% of communities deemed to be highly susceptible to flood hazard. The results will assist disaster managers to reduce the risk to flood disasters at the community level where risk outcomes are first materialized. KW - climate change KW - rational model KW - community KW - flood hazard index KW - West Africa KW - GIS KW - vulnerability KW - performance KW - impact KW - risk KW - mapping KW - runoff Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-151581 VL - 7 SP - 3531 EP - 3564 ER - TY - THES A1 - Koch, Rainer T1 - Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects T1 - Sensorfusion zur präzisen Kartierung von transparenten und reflektierender Objekten N2 - Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet. There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping. Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks. The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements. Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the last chapter summarizes the results and proposes suggestions for future work. N2 - Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen. Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange. Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet, da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile. Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind. Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes. Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren. Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans- parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht. Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig. Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann. Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 16 KW - laserscanner KW - mapping KW - robotic KW - laser scanner KW - sensor fusion KW - transparent KW - specular reflective Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163462 SN - 978-3-945459-25-6 ER - TY - JOUR A1 - Du, Shitong A1 - Lauterbach, Helge A. A1 - Li, Xuyou A1 - Demisse, Girum G. A1 - Borrmann, Dorit A1 - Nüchter, Andreas T1 - Curvefusion — A Method for Combining Estimated Trajectories with Applications to SLAM and Time-Calibration JF - Sensors N2 - Mapping and localization of mobile robots in an unknown environment are essential for most high-level operations like autonomous navigation or exploration. This paper presents a novel approach for combining estimated trajectories, namely curvefusion. The robot used in the experiments is equipped with a horizontally mounted 2D profiler, a constantly spinning 3D laser scanner and a GPS module. The proposed algorithm first combines trajectories from different sensors to optimize poses of the planar three degrees of freedom (DoF) trajectory, which is then fed into continuous-time simultaneous localization and mapping (SLAM) to further improve the trajectory. While state-of-the-art multi-sensor fusion methods mainly focus on probabilistic methods, our approach instead adopts a deformation-based method to optimize poses. To this end, a similarity metric for curved shapes is introduced into the robotics community to fuse the estimated trajectories. Additionally, a shape-based point correspondence estimation method is applied to the multi-sensor time calibration. Experiments show that the proposed fusion method can achieve relatively better accuracy, even if the error of the trajectory before fusion is large, which demonstrates that our method can still maintain a certain degree of accuracy in an environment where typical pose estimation methods have poor performance. In addition, the proposed time-calibration method also achieves high accuracy in estimating point correspondences. KW - mapping KW - continuous-time SLAM KW - deformation-based method KW - time calibration Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219988 SN - 1424-8220 VL - 20 IS - 23 ER - TY - JOUR A1 - Andelovic, Kristina A1 - Winter, Patrick A1 - Kampf, Thomas A1 - Xu, Anton A1 - Jakob, Peter Michael A1 - Herold, Volker A1 - Bauer, Wolfgang Rudolf A1 - Zernecke, Alma T1 - 2D Projection Maps of WSS and OSI Reveal Distinct Spatiotemporal Changes in Hemodynamics in the Murine Aorta during Ageing and Atherosclerosis JF - Biomedicines N2 - Growth, ageing and atherosclerotic plaque development alter the biomechanical forces acting on the vessel wall. However, monitoring the detailed local changes in wall shear stress (WSS) at distinct sites of the murine aortic arch over time has been challenging. Here, we studied the temporal and spatial changes in flow, WSS, oscillatory shear index (OSI) and elastic properties of healthy wildtype (WT, n = 5) and atherosclerotic apolipoprotein E-deficient (Apoe\(^{−/−}\), n = 6) mice during ageing and atherosclerosis using high-resolution 4D flow magnetic resonance imaging (MRI). Spatially resolved 2D projection maps of WSS and OSI of the complete aortic arch were generated, allowing the pixel-wise statistical analysis of inter- and intragroup hemodynamic changes over time and local correlations between WSS, pulse wave velocity (PWV), plaque and vessel wall characteristics. The study revealed converse differences of local hemodynamic profiles in healthy WT and atherosclerotic Apoe\(^{−/−}\) mice, and we identified the circumferential WSS as potential marker of plaque size and composition in advanced atherosclerosis and the radial strain as a potential marker for vascular elasticity. Two-dimensional (2D) projection maps of WSS and OSI, including statistical analysis provide a powerful tool to monitor local aortic hemodynamics during ageing and atherosclerosis. The correlation of spatially resolved hemodynamics and plaque characteristics could significantly improve our understanding of the impact of hemodynamics on atherosclerosis, which may be key to understand plaque progression towards vulnerability. KW - atherosclerosis KW - mouse KW - 4D flow MRI KW - aortic arch KW - flow dynamics KW - WSS KW - mapping KW - PWV KW - plaque characteristics Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-252164 SN - 2227-9059 VL - 9 IS - 12 ER - TY - JOUR A1 - Gram, Maximilian A1 - Gensler, Daniel A1 - Albertova, Petra A1 - Gutjahr, Fabian Tobias A1 - Lau, Kolja A1 - Arias-Loza, Paula-Anahi A1 - Jakob, Peter Michael A1 - Nordbeck, Peter T1 - Quantification correction for free-breathing myocardial T1ρ mapping in mice using a recursively derived description of a T\(_{1p}\)\(^{*}\) relaxation pathway JF - Journal of Cardiovascular Magnetic Resonance N2 - Background Fast and accurate T1ρ mapping in myocardium is still a major challenge, particularly in small animal models. The complex sequence design owing to electrocardiogram and respiratory gating leads to quantification errors in in vivo experiments, due to variations of the T\(_{1p}\) relaxation pathway. In this study, we present an improved quantification method for T\(_{1p}\) using a newly derived formalism of a T\(_{1p}\)\(^{*}\) relaxation pathway. Methods The new signal equation was derived by solving a recursion problem for spin-lock prepared fast gradient echo readouts. Based on Bloch simulations, we compared quantification errors using the common monoexponential model and our corrected model. The method was validated in phantom experiments and tested in vivo for myocardial T\(_{1p}\) mapping in mice. Here, the impact of the breath dependent spin recovery time T\(_{rec}\) on the quantification results was examined in detail. Results Simulations indicate that a correction is necessary, since systematically underestimated values are measured under in vivo conditions. In the phantom study, the mean quantification error could be reduced from − 7.4% to − 0.97%. In vivo, a correlation of uncorrected T\(_{1p}\) with the respiratory cycle was observed. Using the newly derived correction method, this correlation was significantly reduced from r = 0.708 (p < 0.001) to r = 0.204 and the standard deviation of left ventricular T\(_{1p}\) values in different animals was reduced by at least 39%. Conclusion The suggested quantification formalism enables fast and precise myocardial T\(_{1p}\) quantification for small animals during free breathing and can improve the comparability of study results. Our new technique offers a reasonable tool for assessing myocardial diseases, since pathologies that cause a change in heart or breathing rates do not lead to systematic misinterpretations. Besides, the derived signal equation can be used for sequence optimization or for subsequent correction of prior study results. KW - T1rho KW - radial KW - cardiac KW - correction KW - quantitative MRI KW - mapping KW - spin-lock KW - T1ρ Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-300491 VL - 24 IS - 1 ER - TY - THES A1 - Werner, Lennart T1 - Terrain Mapping for Autonomous Navigation of Lunar Rovers T1 - Geländekartierung für die autonome Navigation von Mondrovern N2 - Autonomous mobile robots operating in unknown terrain have to guide their drive decisions through local perception. Local mapping and traversability analysis is essential for safe rover operation and low level locomotion. This thesis deals with the challenge of building a local, robot centric map from ultra short baseline stereo imagery for height and traversability estimation. Several grid-based, incremental mapping algorithms are compared and evaluated in a multi size, multi resolution framework. A new, covariance based mapping update is introduced, which is capable of detecting sub- cellsize obstacles and abstracts the terrain of one cell as a first order surface. The presented mapping setup is capable of producing reliable ter- rain and traversability estimates under the conditions expected for the Cooperative Autonomous Distributed Robotic Exploreration (CADRE) mission. Algorithmic- and software architecture design targets high reliability and efficiency for meeting the tight constraints implied by CADRE’s small on-board embedded CPU. Extensive evaluations are conducted to find possible edge-case scenar- ios in the operating envelope of the map and to confirm performance parameters. The research in this thesis targets the CADRE mission, but is applicable to any form of mobile robotics which require height- and traversability mapping. N2 - Autonome mobile Roboter, die in unkartiertem Terrain operieren, müs- sen ihre Fahrentscheidungen durch lokale Wahrnehmung steuern. Lo- kale Kartierung und Passierbarkeitsanalysen sind der Schlüssel für ei- nen sicheren Betrieb des Roboters und die Fortbewegung. Diese Arbeit beschäftigt sich mit der Herausforderung, eine lokale, roboterzentrierte Karte für Höhen- und Passierbarkeitsanalysen aus Stereobildern zu erstellen. Mehrere inkrementelle Kartierungsalgorithmen werden verglichen und in einem Framework mit verschiedenen Layern für Größen und Auflö- sungen implementiert und verglichen. Ein neues, kovarianzbasiertes Kartierungsupdate wird eingeführt, das in der Lage ist, Hindernisse unterhalb der Zellgröße zu erkennen. Dieser Algorithmus abstrahiert die Umgebung einer Zelle als Oberfläche erster Ordnung. Das vorgestellte Kartierungssystem ist in der Lage, zuverlässige Gelände- und Durchquerbarkeitsschätzungen unter den CADRE Bedingungen zu liefern. Das Design der Algorithmen- und Software-Architektur zielt auf hohe Zuverlässigkeit und Effizienz ab, um die engen Vorgaben der eingebet- teten CPUs an Bord zu wahren. Umfassende Evaluierungen werden durchgeführt, um mögliche Grenz- szenarien im Betriebsbereich der Karte zu finden und die Leistungs- parameter zu bestätigen. Die Forschung in dieser Arbeit zielt auf die CADRE-Mission ab, ist aber auf jede Form der mobilen Robotik an- wendbar, die Höhen- und Durchquerbarkeitsschätzungen erfordert. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 29 KW - Mondfahrzeug KW - mapping KW - navigation KW - hazard avoidance KW - lunar rover Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-358268 ER -