TY - THES A1 - Koch, Rainer T1 - Sensor Fusion for Precise Mapping of Transparent and Specular Reflective Objects T1 - Sensorfusion zur präzisen Kartierung von transparenten und reflektierender Objekten N2 - Almost once a week broadcasts about earthquakes, hurricanes, tsunamis, or forest fires are filling the news. While oneself feels it is hard to watch such news, it is even harder for rescue troops to enter such areas. They need some skills to get a quick overview of the devastated area and find victims. Time is ticking, since the chance for survival shrinks the longer it takes till help is available. To coordinate the teams efficiently, all information needs to be collected at the command center. Therefore, teams investigate the destroyed houses and hollow spaces for victims. Doing so, they never can be sure that the building will not fully collapse while they are inside. Here, rescue robots are welcome helpers, as they are replaceable and make work more secure. Unfortunately, rescue robots are not usable off-the-shelf, yet. There is no doubt, that such a robot has to fulfil essential requirements to successfully accomplish a rescue mission. Apart from the mechanical requirements it has to be able to build a 3D map of the environment. This is essential to navigate through rough terrain and fulfil manipulation tasks (e.g. open doors). To build a map and gather environmental information, robots are equipped with multiple sensors. Since laser scanners produce precise measurements and support a wide scanning range, they are common visual sensors utilized for mapping. Unfortunately, they produce erroneous measurements when scanning transparent (e.g. glass, transparent plastic) or specular reflective objects (e.g. mirror, shiny metal). It is understood that such objects can be everywhere and a pre-manipulation to prevent their influences is impossible. Using additional sensors also bear risks. The problem is that these objects are occasionally visible, based on the incident angle of the laser beam, the surface, and the type of object. Hence, for transparent objects, measurements might result from the object surface or objects behind it. For specular reflective objects, measurements might result from the object surface or a mirrored object. These mirrored objects are illustrated behind the surface which is wrong. To obtain a precise map, the surfaces need to be recognised and mapped reliably. Otherwise, the robot navigates into it and crashes. Further, points behind the surface should be identified and treated based on the object type. Points behind a transparent surface should remain as they represent real objects. In contrast, Points behind a specular reflective surface should be erased. To do so, the object type needs to be classified. Unfortunately, none of the current approaches is capable to fulfil these requirements. Therefore, the following thesis addresses this problem to detect transparent and specular reflective objects and to identify their influences. To give the reader a start up, the first chapters describe: the theoretical background concerning propagation of light; sensor systems applied for range measurements; mapping approaches used in this work; and the state-of-the-art concerning detection and identification of transparent and specular reflective objects. Afterwards, the Reflection-Identification-Approach, which is the core of subject thesis is presented. It describes 2D and a 3D implementation to detect and classify such objects. Both are available as ROS-nodes. In the next chapter, various experiments demonstrate the applicability and reliability of these nodes. It proves that transparent and specular reflective objects can be detected and classified. Therefore, a Pre- and Post-Filter module is required in 2D. In 3D, classification is possible solely with the Pre-Filter. This is due to the higher amount of measurements. An example shows that an updatable mapping module allows the robot navigation to rely on refined maps. Otherwise, two individual maps are build which require a fusion afterwards. Finally, the last chapter summarizes the results and proposes suggestions for future work. N2 - Fast schon wöchentlich füllen Meldungen über Erdbeben, Wirbelstürme, Tsunamis oder Wald-brände die Nachrichten. Es ist hart anzusehen, aber noch viel härter trifft es die Rettungskräfte, welche dort zum Einsatz gerufen werden. Diese müssen gut trainiert sein, um sich schnell einen Überblick verschaffen zu können und um den zerstörten Bereich nach Opfern zu durchsuchen. Zeit ist hier ein seltenes Gut, denn die Überlebenschancen sinken, je länger es dauert bis Hilfe eintrifft. Für eine effektive Teamkoordination werden alle Informationen in der Einsatzzentrale gesammelt. In Trupps wird nach Opfern gesucht. Hierfür werden die zerstörten Gebäude durchsucht und alle Hohlräume inspiziert. Dabei können die Helfer oft nicht darauf vertrauen, dass die Gebäude stabil sind und nicht noch vollständig kollabieren. Hier sind Rettungsroboter eine willkommene Hilfe. Sie sind ersetzbar und können für gefährliche Aufgaben verwendet werden. Dies macht die Arbeit der Rettungstrupps sicherer. Allerdings gibt es solche Roboter noch nicht von der Stange. Sie müssten gewisse Anforderungen erfüllen, dass sie in einem solchen Szenarien einsetztbar sind. Neben Ansprüchen an die Mechanik, müsste eine 3D-Karte des Einsatzgebietes erstellen werden. Diese ist Grundlage für eine erfolgreiche Navigation (durch unebenes Terrain), sowie zur Beeinflussung der Umgebung (z.B. Tür öffnen). Die Umgebungserfassung wird über Sen-soren am Roboter durchgeführt. Heutzutage werden bevorzugt Laserscanner dafür verwendet, da sie präzise Messdaten liefern und über einen großen Messbereich verfügen. Unglücklicherweise werden Messdaten durch transparente (z.B. Glas, transparenter Kunststoff) und reflektierende Objekte (z.B. Spiegel, glänzendes Metall) verfälscht. Eine Vorbehandlung der Umgebung (z.B. abdecken der Flächen), um diese Einflüsse zu verhindern, ist verständlicherweise nicht möglich. Zusätzliche Sensoren zu verwenden birgt ebenfalls Nachteile. Das Problem dieser Objekte liegt darin, dass sie nur teilweise sichtbar sind. Dies ist abhängig vom Einfallwinkel des Laserstrahls auf die Oberfläche und vom Typ des Objektes. Dementsprechend könnnen die Messwerte bei transparenten Flächen von der Oberfläche oder vom Objekten dahinter resultieren. Im Gegensatz dazu können die Messwerte bei reflektierenden Oberflächen von der Oberfläche selbst oder von einem gespiegelten Objekt resultieren. Gespiegelte Objekte werden dabei hinter der reflektierenden Objerfläche dargestellt, was falsch ist. Um eine präzise Kartierung zu erlangen, müssen die Oberflächen zuverlässig eingetragen werden. Andernfalls würde der Roboter in diese navigieren und kollidieren. Weiterhin sollten Punkte hinter der Oberfläche abhängig von der Oberfläche behandelt werden. Bei einer trans- parenten Oberfläche müssen die Punkte in die Karte eingetragen werden, weil sie ein reelles Objekt darstellen. Im Gegensatz dazu, müssen bei einer reflektierenden Oberfläche die Messdaten dahinter gelöscht werden. Dafür ist eine Unterscheidung der Objekte zwingend. Diese Anforderungen erfüllen die momentan verfügbaren Algorithmen jedoch nicht. Aus diesem Grund befasst sich folgende Doktorarbeit mit der Problematik der Erkennung und Identifizierung transparenter und spiegelnder Objekte, sowie deren Einflüsse. Um dem Leser einen Einstieg zu geben, beschreiben die ersten Kapitel: den theoretischen Hindergrund bezüglich des Verhaltens von Licht; Sensorsysteme für die Distanzmessung; Kartierungsalgorithmen, welche in dieser Arbeit verwendet wurden; und den Stand der Technik bezüglich der Erkennung von transparenten und spiegelndend Objekten. Danach wird der Reflection-Identification-Algorithmus, welcher Basis dieser Arbeit ist, präsentiert. Hier wird eine 2D und eine 3D Implementierung beschrieben. Beide sind als ROS-Knoten verfügbar. Das anschließende Kapitel diskutiert Experimente, welche die Anwendbarkeit und Zuverlässigkeit des Algorithmus verifizieren. Für den 2D-Fall ist ein Vor- und ein Nachfilter-Modul notwendig. Nur mittels der Nachfilterung ist eine Klassifizierung der Objekte möglich. Im Gegensatz kann im 3D-Fall die Klassifizierung bereits mit der Vorfilterung erlangt werden. Dies beruht auf der höheren Anzahl an Messdaten. Weiterhin zeigt dieses Kapitel beispielhaft eine Adaptierung des TSD-SLAM Algorithmus, so dass der Roboter auf einer aktualisierten Karte navigieren kann. Dies erspart die Erstellung von zwei unabhängigen Karten und eine anschließende Fusionierung. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst und ein Ausblick mit Anregungen zur Weiterarbeit gegeben. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 16 KW - laserscanner KW - mapping KW - robotic KW - laser scanner KW - sensor fusion KW - transparent KW - specular reflective Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163462 SN - 978-3-945459-25-6 ER - TY - THES A1 - Eskandar, Kevin T1 - Langzeitdepressions-ähnliche Minderung kortikospinaler Exzitabilität durch ein assoziatives Paarstimulationsprotokoll : Methodische Untersuchungen und neurophysiologisches Mapping T1 - Long-term depression-like reduction of corticospinal excitability by the use of a paired associative stimulation protocol: Systematic examination and neurophysiologic mapping N2 - Neuronale Plastizität ist die Voraussetzung für Lernen und Erinnerung. Sie wurde in einer Reihe von Experimenten am Menschen und am Tier eindrucksvoll demonstriert. Das zugrunde liegende Prinzip neuronaler Plastizität ist die Modulierbarkeit synaptischer Übertragungseffizienz. Diese kann im Sinne einer Langzeitpotenzierung (LTP) sowohl hinauf als auch im Sinne einer Langzeitdepression (LTD) herab reguliert werden. Von besonderem Interesse im Allgemeinen und für diese Arbeit ist das Prinzip der assoziativen LTD: Wirkt auf das postsynaptische Neuron zunächst ein starker depolarisierender Reiz und danach in enger zeitlicher Kopplung ein schwacher nicht depolarisierender Reiz so kommt es in der Folge zu einer Erniedrigung der synaptischen Übertragungseffizienz. Für den menschlichen Motorkortex wurde ein experimentelles Protokoll entwickelt, dass mit Hilfe etablierter neurophysiologischer Methoden eine Veränderung der synaptischen Übertragungseffizienz im Sinne eines LTD-ähnlichen Phänomens bewirkt: beinahe synchrone und repetitive Kopplung peripherer N. medianus Stimulation (entspricht dem nicht depolarisierenden Reiz) und kontralateraler transkranieller Magnetstimulation (entspricht dem depolarisierenden Reiz) führt zu einer signifikanten Amplitudenreduktion der magnetisch evozierbaren Potentiale (MEP) des M. abductor pollicis brevis (APB). Voraussetzung für die Effektivität der assoziativen Paarstimulation (PAS-Protokoll) ist, dass der depolarisierende Reiz wenige Millisekunden vor dem nicht depolarisierenden Reiz auf die synaptischen Verbindungen des zentralen APB-Repräsentationsareals einwirkt. Das Ziel dieser Arbeit war es zunächst durch Optimierung der im PAS-Protokoll etablierten Stimulationsparameter die Robustheit und das Ausmaß der erzeugten Exzitabilitätsminderung im APB-Kortexareals zu steigern. Untersucht wurde erstens der Einfluss der Steigerung der Frequenz, sowie zweitens der absoluten Zahl applizierter Paarreize. Drittens wurde untersucht ob ein optimaler Wirkzeitabstand zwischen den beiden assoziativen Stimuli besteht: Eine Synchronisierung des Intervalls zwischen den beiden Paarreizen durch Normierung auf die individuelle Körperlänge führt zu einem konstanten Wirkzeitabstand innerhalb der synaptischen Verbindungen des zentralen APB-Repräsentationsareales. Dies erlaubt eine systematische Untersuchung des optimalen Wirkzeitabstandes der assoziativen Paarreize unabhängig von der individuellen Körperlänge. Mit einem so optimierten PAS-Protokoll wurde der zweite Teil der Arbeit durchgeführt: In den eben beschriebenen Vorversuchen wurde die Änderung der kortikomuskulären Exzitabilität durch Vergleich der durchschnittlichen MEP-Amplituden des Punktes der Schädeldecke, von dem aus eine maximale Reizantwort im Zielmuskel erzeugbar war bestimmt. Um jedoch eine möglichst umfassende Aussage über die Veränderung kortikomuskulärer Exzitabilität treffen zu können, wurde ein etabliertes Kartierungsverfahren verwendet, das eine Darstellung des APB-Repräsentationsareales als zweidimensionale Karte ermöglicht. Mit Hilfe dieser Mapping-Untersuchung sind Aussagen über die räumliche Dimension der Veränderungen kortikomuskulärer Exzitabilität möglich, die über den einfachen Vergleich der an einem Punkt gewonnenen Amplituden hinausgehen. In dieser Arbeit gelang die Induktion kortikaler Plastizität im Sinne assoziativer LTD-ähnlicher Plastizität. Aus unseren Ergebnissen lässt sich ableiten, dass weder durch eine Erhöhung der Frequenz noch der Anzahl der Paarstimuli eine wesentliche Steigerung des LTD-ähnlichen Phänomens zu erzeugen ist. Diesen Umstand führen wir im Wesentlichen auf eine Art Grenzwert der Modulierbarkeit kortikomuskulärer Exzitabilität zurück. Die grundsätzliche Möglichkeit, dass mentale Konzentration auf die in das PAS-Protokoll involvierten Muskeln eine bedeutsamere Rolle für das Ausmaß der induzierten Plastizität spielen könnte als die Intensität der assoziativen Induktion, wurde erörtert. Durch einen Normierungsprozess auf die individuelle Körpergröße kristallisiert sich ein definiertes Fenster der zeitlichen Kopplung der beiden assoziativen Reize mit optimaler LTD-ähnlicher Plastizität heraus. Bei selektiver Betrachtung einer Subgruppe der Mapping-Untersuchung ergaben sich Hinweise darauf, dass die räumliche Verteilung der Exzitabilität durch ein optimiertes PAS-Protokoll verändert wird. Diese Hinweise sind mit der Annahme zu vereinbaren, dass durch ein exzitabilitätsminderndes PAS-Protokoll aktive Synapsen deaktiviert werden können. Mögliche Ursachen für die vergleichsweise schlechte Reproduzierbarkeit der Plastizitätsergebnisse bei kumulativer Betrachtung aller Mapping-Experimente wurden diskutiert. N2 - Neuronal plasticity is the prerequisite for learning and memory. It was demonstrated impressively in a series of experiments on human beings and animals. The basic principle of neuronal plasticity is that the efficiency of synaptic transmission can be modulated. It can be increased as in a long-term potentiation (LTP) and decreased as in a long-term depression (LTD). The principle of associative LTD is of special interest in general and for this study: if at first a strong depolarizing stimulus affects the postsynaptic neuron and then only a short time later a weak non-depolarizing stimulus affects the postsynaptic neuron, the transmission efficiency will be decreased. An experimental protocol has been developed for the human motor cortex that, by means of established neurophysiologic methods, causes a modification of the efficiency of synaptic transmission in terms of an LTD-similar phenomenon: an almost synchronous and repetitive coupling of peripheral N. medianus stimulation (corresponds to the non-depolarizing stimulus) and contralateral magnetic stimulation (corresponds to the depolarizing stimulus) leads to a significant reduction in amplitude of the motor-evoked potentials (MEP) of the M. abductor pollicis brevis (APB). For the effectiveness of the paired associative stimulation it is necessary that the depolarizing stimulus affects the synaptic connections of the central APB-representation area only a few milliseconds before the non-depolarizing stimulus. Initially, the purpose of this study was to enhance the robustness and the extent of the generated reduction in excitability in the APB-cortex area by optimizing the stimulation parameter established in the PAS protocol. First of all, the influence of the increase in frequency was analysed and then secondly, the absolute number of applied pair stimuli. By scaling to the individual body length, a synchronization of the interval between both pair stimuli leads to a constant reaction time interval within the synaptic connection of the central APB representation area. Thirdly, it was examined if there is an optimal reaction time interval between both associative stimuli: by scaling to the individual body length, a synchronization of the interval between both pair stimuli leads to a constant reaction time interval within the synaptic connection of the central APB representation area. This allows a systematic examination of the optimal reaction time interval of the associative pair stimuli regardless of the individual body size. The second part of the study was carried out using such an optimized PAS-protocol. During the pre-experiments that have just been described, the modification of the cortico-muscular excitability was determined by means of comparison of the average MEP-amplitudes from the point of the brain pan where the maximum answer on stimulus in the destination muscle could be generated. In order to be able to make a comprehensive statement about the cortico-muscular excitability an established mapping procedure was used that makes it possible to depict the APB-representation area as a two-dimensional map. By means of this mapping-examination, statements concerning the spatial dimension of the modifications of cortico-muscular excitability can be made, which exceed the simple comparison of amplitudes that have been generated at a certain point. In this study, the induction of cortical plasticity was realized as in associative LTD-similar plasticity. From our results, it can be deduced that neither the increase in frequency nor the number of pair stimuli causes an essential increase of the LTD-similar phenomenon. In our opinion this is due to the fact that there is a kind of limit value in the modulating capacity of cortico-muscular excitability. There was a discussion whether it was possible in principle that the mental concentration on the muscles involved in the PAS-protocol might play a more important role for the extent of the induced plasticity than the intensity of the associative induction. By means of a standardization process to the individual body size it emerges that both associative stimuli have to follow immediately within a defined, narrow time for a ‘window of opportunity’. Looking at a subgroup of the mapping-examination in a selective way it came out that the spatial distribution of the excitability is being modified by an optimized PAS-Protocol. These hints coincide with the assumption that active synapses can be deactivated by means of a PAS-protocol, which minimizes the excitability. Regarding all mapping-experiments in a cumulative way, a discussion ensued about the possible reasons for the comparatively bad reproducibility of the plasticity results. KW - Mapping KW - Motorischer Cortex KW - Neuronale Plastizität KW - LTD KW - Langzeitdepression KW - assoziative Paarstimulation KW - neuronal plasticity KW - long-term depression KW - motor cortex KW - mapping KW - paired associative stimulation Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-36245 ER - TY - THES A1 - Kaltwasser, Christoph T1 - Rekonstruktion und Simulation der Ausbreitung und Rückbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen Lösung des Inversen Problems der Elektrokardiographie T1 - Reconstruction and simulation of the electric depolarization and repolarization in the human heart N2 - Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen. N2 - The electrophysiological processes that occur during cardiac depolarization and repolarization can be interpreted via 12-channel ECG only in a limited manner. This is due to inhomogeneities in the cardiac and thoracic electric conductivity and the attenuation of the electric signals in the body. Invasive cardiac measurements can avoid these problems but are expensive and not free of risk for the patient. In this work therefore a method of non-invasive electrocardiographic imaging was established which permits the reconstruction of cardiac electrophysiological processes using exclusively information obtained by non-invasive methods (MR-imaging, electrocardiographic mapping). Using anatomic information from MR-images of the patient’s heart and chest, a patient-individual model of electric conductivity could be created (finite-element method). Numerical algorithms were used to solve the inverse problem of electrocardiography, i.e. finding cardiac potential distributions that explain the measured surface potential distribution. In two healthy volunteers as well as in 7 patients with different cardiac pathologies, reconstructions of epicardial potentials and transmembrane voltages were performed. Specific electrophysiological abnormalities (decreased electric activity, polarization reversal, delayed depolarization and atypical repolarization patterns) could be detected in the proximity of myocardial scars. To optimize reconstruction algorithms and regularization methods, cardiac potentials were also simulated using a cellular automaton and the patient individual conductivity model. This study shows that the reconstruction of cardiac electrophysiology is feasible with this method and that myocardial scars and atypical patterns of depolarization and repolarization can be detected. By further improving the method and after a process of validation, clinically relevant data might be obtained. KW - Elektrophysiologie KW - Herzmuskelfunktion KW - Elektrisches Potenzial KW - Rekonstruktion KW - NMR-Tomographie KW - Computersimulation KW - Depolarisation KW - Repolarisation KW - Elektrokardiologie KW - Vorwärtsproblem KW - nichtinvasive elektrokardiographische Bildgebung KW - ECGI KW - NICE KW - Inverses Problem KW - electrocardiology KW - non-invasive electrocardiographic imaging KW - ECGI KW - NICE KW - NMR-tomography KW - mapping KW - inverse problem Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26316 ER - TY - THES A1 - Gutbrod, Heidrun T1 - Untersuchungen zur genetischen Kontrolle des Melanom-induzierenden Gens von Xiphophorus T1 - Analyses for the genetic control of the melanoma inducing gene of Xiphophorus N2 - Die Melanomentstehung bei Rückkreuzungshybriden des Zahnkarpfens Xiphophorus wird durch die Überexpression des geschlechtschromosomalen Xmrk Onkogens verursacht. Im Wildtyp ist die Aktivität von Xmrk durch einen autosomalen Regulatorlocus R unterdrückt. Ziel dieser Arbeit war es, Erkenntnisse über die Expressionsregulation des Xmrk Onkogens zu gewinnen. Dazu wurden einerseits Experimente zur Kartierung von R durchgeführt, die eine Positionsklonierung des Gens erlauben würden. Zum anderen konnte durch die Analyse verschiedener Xmrk Mutanten ein genregulatorisches Element im Xmrk Onkogen identifiziert werden. N2 - The development of melanomas in Xiphophorus backcross hybrids is caused by overexpression of the sex linked oncogene Xmrk. The activity of Xmrk is repressed in wildtype fish by an autosomal regulatory locus, R. Aim of this study was to get insights into the regulation of the expression of the Xmrk oncogene. The work included experiments for mapping of R which is a prerequisite for a positional cloning strategy. The analysis of several Xmrk mutants led to the identification of a gene regulatory element in the Xmrk oncogene. KW - Schwertkärpfling KW - Melanom KW - Molekulargenetik KW - Xiphophorus KW - Xmrk KW - Rezeptortyrosinkinase KW - Fisch KW - AP-PCR KW - AFLP KW - Kartierung KW - Xiphophorus KW - Xmrk KW - receptor tyrosine kinase KW - fishes KW - AP-PCR KW - AFLP KW - mapping Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-1370 ER -