Refine
Has Fulltext
- yes (10)
Is part of the Bibliography
- yes (10)
Year of publication
Document Type
- Journal article (5)
- Doctoral Thesis (4)
- Master Thesis (1)
Keywords
- mapping (10) (remove)
Institute
- Institut für Informatik (4)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (2)
- Medizinische Klinik und Poliklinik I (2)
- Physikalisches Institut (2)
- Graduate School of Science and Technology (1)
- Institut für Experimentelle Biomedizin (1)
- Institut für Geographie und Geologie (1)
- Institut für Medizinische Strahlenkunde und Zellforschung (1)
- Institut für diagnostische und interventionelle Neuroradiologie (ehem. Abteilung für Neuroradiologie) (1)
- Klinik und Poliklinik für Nuklearmedizin (1)
Sonstige beteiligte Institutionen
Growth, ageing and atherosclerotic plaque development alter the biomechanical forces acting on the vessel wall. However, monitoring the detailed local changes in wall shear stress (WSS) at distinct sites of the murine aortic arch over time has been challenging. Here, we studied the temporal and spatial changes in flow, WSS, oscillatory shear index (OSI) and elastic properties of healthy wildtype (WT, n = 5) and atherosclerotic apolipoprotein E-deficient (Apoe\(^{−/−}\), n = 6) mice during ageing and atherosclerosis using high-resolution 4D flow magnetic resonance imaging (MRI). Spatially resolved 2D projection maps of WSS and OSI of the complete aortic arch were generated, allowing the pixel-wise statistical analysis of inter- and intragroup hemodynamic changes over time and local correlations between WSS, pulse wave velocity (PWV), plaque and vessel wall characteristics. The study revealed converse differences of local hemodynamic profiles in healthy WT and atherosclerotic Apoe\(^{−/−}\) mice, and we identified the circumferential WSS as potential marker of plaque size and composition in advanced atherosclerosis and the radial strain as a potential marker for vascular elasticity. Two-dimensional (2D) projection maps of WSS and OSI, including statistical analysis provide a powerful tool to monitor local aortic hemodynamics during ageing and atherosclerosis. The correlation of spatially resolved hemodynamics and plaque characteristics could significantly improve our understanding of the impact of hemodynamics on atherosclerosis, which may be key to understand plaque progression towards vulnerability.
Robust risk assessment requires accurate flood intensity area mapping to allow for the identification of populations and elements at risk. However, available flood maps in West Africa lack spatial variability while global datasets have resolutions too coarse to be relevant for local scale risk assessment. Consequently, local disaster managers are forced to use traditional methods such as watermarks on buildings and media reports to identify flood hazard areas. In this study, remote sensing and Geographic Information System (GIS) techniques were combined with hydrological and statistical models to delineate the spatial limits of flood hazard zones in selected communities in Ghana, Burkina Faso and Benin. The approach involves estimating peak runoff concentrations at different elevations and then applying statistical methods to develop a Flood Hazard Index (FHI). Results show that about half of the study areas fall into high intensity flood zones. Empirical validation using statistical confusion matrix and the principles of Participatory GIS show that flood hazard areas could be mapped at an accuracy ranging from 77% to 81%. This was supported with local expert knowledge which accurately classified 79% of communities deemed to be highly susceptible to flood hazard. The results will assist disaster managers to reduce the risk to flood disasters at the community level where risk outcomes are first materialized.
Mapping and localization of mobile robots in an unknown environment are essential for most high-level operations like autonomous navigation or exploration. This paper presents a novel approach for combining estimated trajectories, namely curvefusion. The robot used in the experiments is equipped with a horizontally mounted 2D profiler, a constantly spinning 3D laser scanner and a GPS module. The proposed algorithm first combines trajectories from different sensors to optimize poses of the planar three degrees of freedom (DoF) trajectory, which is then fed into continuous-time simultaneous localization and mapping (SLAM) to further improve the trajectory. While state-of-the-art multi-sensor fusion methods mainly focus on probabilistic methods, our approach instead adopts a deformation-based method to optimize poses. To this end, a similarity metric for curved shapes is introduced into the robotics community to fuse the estimated trajectories. Additionally, a shape-based point correspondence estimation method is applied to the multi-sensor time calibration. Experiments show that the proposed fusion method can achieve relatively better accuracy, even if the error of the trajectory before fusion is large, which demonstrates that our method can still maintain a certain degree of accuracy in an environment where typical pose estimation methods have poor performance. In addition, the proposed time-calibration method also achieves high accuracy in estimating point correspondences.
Mobile laser scanning puts high requirements on the accuracy of the positioning systems and the calibration of the measurement system. We present a novel algorithmic approach for calibration with the goal of improving the measurement accuracy of mobile laser scanners. We describe a general framework for calibrating mobile sensor platforms that estimates all configuration parameters for any arrangement of positioning sensors, including odometry. In addition, we present a novel semi-rigid Simultaneous Localization and Mapping (SLAM) algorithm that corrects the vehicle position at every point in time along its trajectory, while simultaneously improving the quality and precision of the entire acquired point cloud. Using this algorithm, the temporary failure of accurate external positioning systems or the lack thereof can be compensated for. We demonstrate the capabilities of the two newly proposed algorithms on a wide variety of datasets.
Neuronale Plastizität ist die Voraussetzung für Lernen und Erinnerung. Sie wurde in einer Reihe von Experimenten am Menschen und am Tier eindrucksvoll demonstriert. Das zugrunde liegende Prinzip neuronaler Plastizität ist die Modulierbarkeit synaptischer Übertragungseffizienz. Diese kann im Sinne einer Langzeitpotenzierung (LTP) sowohl hinauf als auch im Sinne einer Langzeitdepression (LTD) herab reguliert werden. Von besonderem Interesse im Allgemeinen und für diese Arbeit ist das Prinzip der assoziativen LTD: Wirkt auf das postsynaptische Neuron zunächst ein starker depolarisierender Reiz und danach in enger zeitlicher Kopplung ein schwacher nicht depolarisierender Reiz so kommt es in der Folge zu einer Erniedrigung der synaptischen Übertragungseffizienz. Für den menschlichen Motorkortex wurde ein experimentelles Protokoll entwickelt, dass mit Hilfe etablierter neurophysiologischer Methoden eine Veränderung der synaptischen Übertragungseffizienz im Sinne eines LTD-ähnlichen Phänomens bewirkt: beinahe synchrone und repetitive Kopplung peripherer N. medianus Stimulation (entspricht dem nicht depolarisierenden Reiz) und kontralateraler transkranieller Magnetstimulation (entspricht dem depolarisierenden Reiz) führt zu einer signifikanten Amplitudenreduktion der magnetisch evozierbaren Potentiale (MEP) des M. abductor pollicis brevis (APB). Voraussetzung für die Effektivität der assoziativen Paarstimulation (PAS-Protokoll) ist, dass der depolarisierende Reiz wenige Millisekunden vor dem nicht depolarisierenden Reiz auf die synaptischen Verbindungen des zentralen APB-Repräsentationsareals einwirkt. Das Ziel dieser Arbeit war es zunächst durch Optimierung der im PAS-Protokoll etablierten Stimulationsparameter die Robustheit und das Ausmaß der erzeugten Exzitabilitätsminderung im APB-Kortexareals zu steigern. Untersucht wurde erstens der Einfluss der Steigerung der Frequenz, sowie zweitens der absoluten Zahl applizierter Paarreize. Drittens wurde untersucht ob ein optimaler Wirkzeitabstand zwischen den beiden assoziativen Stimuli besteht: Eine Synchronisierung des Intervalls zwischen den beiden Paarreizen durch Normierung auf die individuelle Körperlänge führt zu einem konstanten Wirkzeitabstand innerhalb der synaptischen Verbindungen des zentralen APB-Repräsentationsareales. Dies erlaubt eine systematische Untersuchung des optimalen Wirkzeitabstandes der assoziativen Paarreize unabhängig von der individuellen Körperlänge. Mit einem so optimierten PAS-Protokoll wurde der zweite Teil der Arbeit durchgeführt: In den eben beschriebenen Vorversuchen wurde die Änderung der kortikomuskulären Exzitabilität durch Vergleich der durchschnittlichen MEP-Amplituden des Punktes der Schädeldecke, von dem aus eine maximale Reizantwort im Zielmuskel erzeugbar war bestimmt. Um jedoch eine möglichst umfassende Aussage über die Veränderung kortikomuskulärer Exzitabilität treffen zu können, wurde ein etabliertes Kartierungsverfahren verwendet, das eine Darstellung des APB-Repräsentationsareales als zweidimensionale Karte ermöglicht. Mit Hilfe dieser Mapping-Untersuchung sind Aussagen über die räumliche Dimension der Veränderungen kortikomuskulärer Exzitabilität möglich, die über den einfachen Vergleich der an einem Punkt gewonnenen Amplituden hinausgehen. In dieser Arbeit gelang die Induktion kortikaler Plastizität im Sinne assoziativer LTD-ähnlicher Plastizität. Aus unseren Ergebnissen lässt sich ableiten, dass weder durch eine Erhöhung der Frequenz noch der Anzahl der Paarstimuli eine wesentliche Steigerung des LTD-ähnlichen Phänomens zu erzeugen ist. Diesen Umstand führen wir im Wesentlichen auf eine Art Grenzwert der Modulierbarkeit kortikomuskulärer Exzitabilität zurück. Die grundsätzliche Möglichkeit, dass mentale Konzentration auf die in das PAS-Protokoll involvierten Muskeln eine bedeutsamere Rolle für das Ausmaß der induzierten Plastizität spielen könnte als die Intensität der assoziativen Induktion, wurde erörtert. Durch einen Normierungsprozess auf die individuelle Körpergröße kristallisiert sich ein definiertes Fenster der zeitlichen Kopplung der beiden assoziativen Reize mit optimaler LTD-ähnlicher Plastizität heraus. Bei selektiver Betrachtung einer Subgruppe der Mapping-Untersuchung ergaben sich Hinweise darauf, dass die räumliche Verteilung der Exzitabilität durch ein optimiertes PAS-Protokoll verändert wird. Diese Hinweise sind mit der Annahme zu vereinbaren, dass durch ein exzitabilitätsminderndes PAS-Protokoll aktive Synapsen deaktiviert werden können. Mögliche Ursachen für die vergleichsweise schlechte Reproduzierbarkeit der Plastizitätsergebnisse bei kumulativer Betrachtung aller Mapping-Experimente wurden diskutiert.
Background
Fast and accurate T1ρ mapping in myocardium is still a major challenge, particularly in small animal models. The complex sequence design owing to electrocardiogram and respiratory gating leads to quantification errors in in vivo experiments, due to variations of the T\(_{1p}\) relaxation pathway. In this study, we present an improved quantification method for T\(_{1p}\) using a newly derived formalism of a T\(_{1p}\)\(^{*}\) relaxation pathway.
Methods
The new signal equation was derived by solving a recursion problem for spin-lock prepared fast gradient echo readouts. Based on Bloch simulations, we compared quantification errors using the common monoexponential model and our corrected model. The method was validated in phantom experiments and tested in vivo for myocardial T\(_{1p}\) mapping in mice. Here, the impact of the breath dependent spin recovery time T\(_{rec}\) on the quantification results was examined in detail.
Results
Simulations indicate that a correction is necessary, since systematically underestimated values are measured under in vivo conditions. In the phantom study, the mean quantification error could be reduced from − 7.4% to − 0.97%. In vivo, a correlation of uncorrected T\(_{1p}\) with the respiratory cycle was observed. Using the newly derived correction method, this correlation was significantly reduced from r = 0.708 (p < 0.001) to r = 0.204 and the standard deviation of left ventricular T\(_{1p}\) values in different animals was reduced by at least 39%.
Conclusion
The suggested quantification formalism enables fast and precise myocardial T\(_{1p}\) quantification for small animals during free breathing and can improve the comparability of study results. Our new technique offers a reasonable tool for assessing myocardial diseases, since pathologies that cause a change in heart or breathing rates do not lead to systematic misinterpretations. Besides, the derived signal equation can be used for sequence optimization or for subsequent correction of prior study results.
Die Melanomentstehung bei Rückkreuzungshybriden des Zahnkarpfens Xiphophorus wird durch die Überexpression des geschlechtschromosomalen Xmrk Onkogens verursacht. Im Wildtyp ist die Aktivität von Xmrk durch einen autosomalen Regulatorlocus R unterdrückt. Ziel dieser Arbeit war es, Erkenntnisse über die Expressionsregulation des Xmrk Onkogens zu gewinnen. Dazu wurden einerseits Experimente zur Kartierung von R durchgeführt, die eine Positionsklonierung des Gens erlauben würden. Zum anderen konnte durch die Analyse verschiedener Xmrk Mutanten ein genregulatorisches Element im Xmrk Onkogen identifiziert werden.
Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.
Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they
are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet.
There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build
a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping.
Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks.
The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to
be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements.
Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters
describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An
example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the
last chapter summarizes the results and proposes suggestions for future work.
Autonomous mobile robots operating in unknown terrain have to guide
their drive decisions through local perception. Local mapping and
traversability analysis is essential for safe rover operation and low level
locomotion. This thesis deals with the challenge of building a local,
robot centric map from ultra short baseline stereo imagery for height
and traversability estimation.
Several grid-based, incremental mapping algorithms are compared and
evaluated in a multi size, multi resolution framework. A new, covariance
based mapping update is introduced, which is capable of detecting sub-
cellsize obstacles and abstracts the terrain of one cell as a first order
surface.
The presented mapping setup is capable of producing reliable ter-
rain and traversability estimates under the conditions expected for the
Cooperative Autonomous Distributed Robotic Exploreration (CADRE)
mission.
Algorithmic- and software architecture design targets high reliability
and efficiency for meeting the tight constraints implied by CADRE’s
small on-board embedded CPU.
Extensive evaluations are conducted to find possible edge-case scenar-
ios in the operating envelope of the map and to confirm performance
parameters. The research in this thesis targets the CADRE mission, but
is applicable to any form of mobile robotics which require height- and
traversability mapping.