TY - THES A1 - Bleier, Michael T1 - Underwater Laser Scanning - Refractive Calibration, Self-calibration and Mapping for 3D Reconstruction T1 - Laserscanning unter Wasser - Refraktive Kalibrierung, Selbstkalibrierung und Kartierung zur 3D Rekonstruktion N2 - There is great interest in affordable, precise and reliable metrology underwater: Archaeologists want to document artifacts in situ with high detail. In marine research, biologists require the tools to monitor coral growth and geologists need recordings to model sediment transport. Furthermore, for offshore construction projects, maintenance and inspection millimeter-accurate measurements of defects and offshore structures are essential. While the process of digitizing individual objects and complete sites on land is well understood and standard methods, such as Structure from Motion or terrestrial laser scanning, are regularly applied, precise underwater surveying with high resolution is still a complex and difficult task. Applying optical scanning techniques in water is challenging due to reduced visibility caused by turbidity and light absorption. However, optical underwater scanners provide significant advantages in terms of achievable resolution and accuracy compared to acoustic systems. This thesis proposes an underwater laser scanning system and the algorithms for creating dense and accurate 3D scans in water. It is based on laser triangulation and the main optical components are an underwater camera and a cross-line laser projector. The prototype is configured with a motorized yaw axis for capturing scans from a tripod. Alternatively, it is mounted to a moving platform for mobile mapping. The main focus lies on the refractive calibration of the underwater camera and laser projector, the image processing and 3D reconstruction. For highest accuracy, the refraction at the individual media interfaces must be taken into account. This is addressed by an optimization-based calibration framework using a physical-geometric camera model derived from an analytical formulation of a ray-tracing projection model. In addition to scanning underwater structures, this work presents the 3D acquisition of semi-submerged structures and the correction of refraction effects. As in-situ calibration in water is complex and time-consuming, the challenge of transferring an in-air scanner calibration to water without re-calibration is investigated, as well as self-calibration techniques for structured light. The system was successfully deployed in various configurations for both static scanning and mobile mapping. An evaluation of the calibration and 3D reconstruction using reference objects and a comparison of free-form surfaces in clear water demonstrate the high accuracy potential in the range of one millimeter to less than one centimeter, depending on the measurement distance. Mobile underwater mapping and motion compensation based on visual-inertial odometry is demonstrated using a new optical underwater scanner based on fringe projection. Continuous registration of individual scans allows the acquisition of 3D models from an underwater vehicle. RGB images captured in parallel are used to create 3D point clouds of underwater scenes in full color. 3D maps are useful to the operator during the remote control of underwater vehicles and provide the building blocks to enable offshore inspection and surveying tasks. The advancing automation of the measurement technology will allow non-experts to use it, significantly reduce acquisition time and increase accuracy, making underwater metrology more cost-effective. N2 - Das Interesse an präziser, zuverlässiger und zugleich kostengünstiger Unterwassermesstechnik ist groß. Beispielsweise wollen Archäologen Artefakte in situ mit hoher Detailtreue dokumentieren und in der Meeresforschung benötigen Biologen Messwerkzeuge zur Beobachtung des Korallenwachstums. Auch Geologen sind auf Messdaten angewiesen, um Sedimenttransporte zu modellieren. Darüber hinaus ist für die Errichtung von Offshore-Bauwerken, sowie deren Wartung und Inspektion eine millimetergenaue Vermessung von vorhandenen Strukturen und Defekten unerlässlich. Während die Digitalisierung einzelner Objekte und ganzer Areale an Land gut erforscht ist und verschiedene Standardmethoden, wie zum Beispiel Structure from Motion oder terrestrisches Laserscanning, regelmäßig eingesetzt werden, ist die präzise und hochauflösende Unterwasservermessung nach wie vor eine komplexe und schwierige Aufgabe. Die Anwendung optischer Messtechnik im Wasser ist aufgrund der eingeschränkten Sichttiefe durch Trübung und Lichtabsorption eine Herausforderung. Optische Unterwasserscanner bieten jedoch Vorteile hinsichtlich der erreichbaren Auflösung und Genauigkeit gegenüber akustischen Systemen. In dieser Arbeit werden ein Unterwasser-Laserscanning-System und die Algorithmen zur Erzeugung von 3D-Scans mit hoher Punktdichte im Wasser vorgestellt. Es basiert auf Lasertriangulation und die optischen Hauptkomponenten sind eine Unterwasserkamera und ein Kreuzlinienlaserprojektor. Das System ist mit einer motorisierten Drehachse ausgestattet, um Scans von einem Stativ aus aufzunehmen. Alternativ kann es von einer beweglichen Plattform aus für mobile Kartierung eingesetzt werden. Das Hauptaugenmerk liegt auf der refraktiven Kalibrierung der Unterwasserkamera und des Laserprojektors, der Bildverarbeitung und der 3D-Rekonstruktion. Um höchste Genauigkeit zu erreichen, muss die Brechung an den einzelnen Medienübergängen berücksichtigt werden. Dies wird durch ein physikalisch-geometrisches Kameramodell, das auf einer analytischen Beschreibung der Strahlenverfolgung basiert, und ein optimierungsbasiertes Kalibrierverfahren erreicht. Neben dem Scannen von Unterwasserstrukturen wird in dieser Arbeit auch die 3D-Erfassung von teilweise im Wasser befindlichen Strukturen und die Korrektur der dabei auftretenden Brechungseffekte vorgestellt. Da die Kalibrierung im Wasser komplex und zeitintensiv ist, wird die Übertragung einer Kalibrierung des Scanners in Luft auf die Bedingungen im Wasser ohne Neukalibrierung, sowie die Selbstkalibrierung für Lichtschnittverfahren untersucht. Das System wurde in verschiedenen Konfigurationen sowohl für statisches Scannen als auch für die mobile Kartierung erfolgreich eingesetzt. Die Validierung der Kalibrierung und der 3D-Rekonstruktion anhand von Referenzobjekten und der Vergleich von Freiformflächen in klarem Wasser zeigen das hohe Genauigkeitspotenzial im Bereich von einem Millimeter bis weniger als einem Zentimeter in Abhängigkeit von der Messdistanz. Die mobile Unterwasserkartierung und Bewegungskompensation anhand visuell-inertialer Odometrie wird mit einem neuen optischen Unterwasserscanner auf Basis der Streifenprojektion demonstriert. Dabei ermöglicht die kontinuierliche Registrierung von Einzelscans die Erfassung von 3D-Modellen von einem Unterwasserfahrzeug aus. Mit Hilfe von parallel aufgenommenen RGB-Bildern werden dabei farbige 3D-Punktwolken der Unterwasserszenen erstellt. Diese 3D-Karten dienen beispielsweise dem Bediener bei der Fernsteuerung von Unterwasserfahrzeugen und bilden die Grundlage für Offshore-Inspektions- und Vermessungsaufgaben. Die fortschreitende Automatisierung der Messtechnik wird somit auch eine Verwendung durch Nichtfachleute ermöglichen und gleichzeitig die Erfassungszeit erheblich verkürzen und die Genauigkeit verbessern, was die Vermessung im Wasser kostengünstiger und effizienter macht. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 28 KW - Selbstkalibrierung KW - Punktwolke KW - Bildverarbeitung KW - 3D Reconstruction KW - Self-calibration KW - Underwater Scanning KW - Underwater Mapping KW - Dreidimensionale Rekonstruktion KW - 3D-Rekonstruktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322693 SN - 978-3-945459-45-4 ER - TY - THES A1 - Dhillon, Maninder Singh T1 - Potential of Remote Sensing in Modeling Long-Term Crop Yields T1 - Potenzial der Fernerkundung für die Modellierung Langfristiger Ernteerträge N2 - Accurate crop monitoring in response to climate change at a regional or field scale plays a significant role in developing agricultural policies, improving food security, forecasting, and analysing global trade trends. Climate change is expected to significantly impact agriculture, with shifts in temperature, precipitation patterns, and extreme weather events negatively affecting crop yields, soil fertility, water availability, biodiversity, and crop growing conditions. Remote sensing (RS) can provide valuable information combined with crop growth models (CGMs) for yield assessment by monitoring crop development, detecting crop changes, and assessing the impact of climate change on crop yields. This dissertation aims to investigate the potential of RS data on modelling long-term crop yields of winter wheat (WW) and oil seed rape (OSR) for the Free State of Bavaria (70,550 km2 ), Germany. The first chapter of the dissertation describes the reasons favouring the importance of accurate crop yield predictions for achieving sustainability in agriculture. Chapter second explores the accuracy assessment of the synthetic RS data by fusing NDVIs of two high spatial resolution data (high pair) (Landsat (30 m, 16-days; L) and Sentinel-2 (10 m, 5–6 days; S), with four low spatial resolution data (low pair) (MOD13Q1 (250 m, 16-days), MCD43A4 (500 m, one day), MOD09GQ (250 m, one-day), and MOD09Q1 (250 m, 8-days)) using the spatial and temporal adaptive reflectance fusion model (STARFM), which fills regions' cloud or shadow gaps without losing spatial information. The chapter finds that both L-MOD13Q1 (R2 = 0.62, RMSE = 0.11) and S-MOD13Q1 (R2 = 0.68, RMSE = 0.13) are more suitable for agricultural monitoring than the other synthetic products fused. Chapter third explores the ability of the synthetic spatiotemporal datasets (obtained in chapter 2) to accurately map and monitor crop yields of WW and OSR at a regional scale. The chapter investigates and discusses the optimal spatial (10 m, 30 m, or 250 m), temporal (8 or 16-day) and CGMs (World Food Studies (WOFOST), and the semi-empiric light use efficiency approach (LUE)) for accurate crop yield estimations of both crop types. Chapter third observes that the observations of high temporal resolution (8-day) products of both S-MOD13Q1 and L-MOD13Q1 play a significant role in accurately measuring the yield of WW and OSR. The chapter investigates that the simple light use efficiency (LUE) model (R2 = 0.77 and relative RMSE (RRMSE) = 8.17%) that required fewer input parameters to simulate crop yield is highly accurate, reliable, and more precise than the complex WOFOST model (R2 = 0.66 and RRMSE = 11.35%) with higher input parameters. Chapter four researches the relationship of spatiotemporal fusion modelling using STRAFM on crop yield prediction for WW and OSR using the LUE model for Bavaria from 2001 to 2019. The chapter states the high positive correlation coefficient (R) = 0.81 and R = 0.77 between the yearly R2 of synthetic accuracy and modelled yield accuracy for WW and OSR from 2001 to 2019, respectively. The chapter analyses the impact of climate variables on crop yield predictions by observing an increase in R2 (0.79 (WW)/0.86 (OSR)) and a decrease in RMSE (4.51/2.57 dt/ha) when the climate effect is included in the model. The fifth chapter suggests that the coupling of the LUE model to the random forest (RF) model can further reduce the relative root mean square error (RRMSE) from -8% (WW) and -1.6% (OSR) and increase the R2 by 14.3% (for both WW and OSR), compared to results just relying on LUE. The same chapter concludes that satellite-based crop biomass, solar radiation, and temperature are the most influential variables in the yield prediction of both crop types. Chapter six attempts to discuss both pros and cons of RS technology while analysing the impact of land use diversity on crop-modelled biomass of WW and OSR. The chapter finds that the modelled biomass of both crops is positively impacted by land use diversity to the radius of 450 (Shannon Diversity Index ~0.75) and 1050 m (~0.75), respectively. The chapter also discusses the future implications by stating that including some dependent factors (such as the management practices used, soil health, pest management, and pollinators) could improve the relationship of RS-modelled crop yields with biodiversity. Lastly, chapter seven discusses testing the scope of new sensors such as unmanned aerial vehicles, hyperspectral sensors, or Sentinel-1 SAR in RS for achieving accurate crop yield predictions for precision farming. In addition, the chapter highlights the significance of artificial intelligence (AI) or deep learning (DL) in obtaining higher crop yield accuracies. N2 - Die genaue Überwachung von Nutzpflanzen als Reaktion auf den Klimawandel auf regionaler oder feldbezogener Ebene spielt eine wichtige Rolle bei der Entwicklung von Agrarpolitiken, der Verbesserung der Ernährungssicherheit, der Erstellung von Prognosen und der Analyse von Trends im Welthandel. Es wird erwartet, dass sich der Klimawandel erheblich auf die Landwirtschaft auswirken wird, da sich Verschiebungen bei den Temperaturen, Niederschlagsmustern und extremen Wetterereignissen negativ auf die Ernteerträge, die Bodenfruchtbarkeit, die Wasserverfügbarkeit, die Artenvielfalt und die Anbaubedingungen auswirken werden. Die Fernerkundung (RS) kann in Kombination mit Wachstumsmodellen (CGM) wertvolle Informationen für die Ertragsbewertung liefern, indem sie die Entwicklung von Pflanzen überwacht, Veränderungen bei den Pflanzen erkennt und die Auswirkungen des Klimawandels auf die Ernteerträge bewertet. Ziel dieser Dissertation ist es, das Potenzial von RS-Daten für die Modellierung langfristiger Ernteerträge von Winterweizen (WW) und Ölraps (OSR) für den Freistaat Bayern (70.550 km2 ), Deutschland, zu untersuchen. Das erste Kapitel der Dissertation beschreibt die Gründe, die für die Bedeutung genauer Ernteertragsvorhersagen für die Nachhaltigkeit in der Landwirtschaft sprechen. Das zweite Kapitel befasst sich mit der Bewertung der Genauigkeit der synthetischen RS Daten durch die Fusion der NDVIs von zwei Daten mit hoher räumlicher Auflösung (hohes Paar) (Landsat (30 m, 16 Tage; L) und Sentinel-2 (10 m, 5-6 Tage; S) mit vier Daten mit geringer räumlicher Auflösung (niedriges Paar) (MOD13Q1 (250 m, 16 Tage), MCD43A4 (500 m, ein Tag), MOD09GQ (250 m, ein Tag) und MOD09Q1 (250 m, 8 Tage)) unter Verwendung des räumlich und zeitlich adaptiven Reflexionsfusionsmodells (STARFM), das Wolken- oder Schattenlücken in Regionen füllt, ohne räumliche Informationen zu verlieren. In diesem Kapitel wird festgestellt, dass sowohl L-MOD13Q1 (R2 = 0,62, RMSE = 0,11) als auch S-MOD13Q1 (R2 = 0,68, RMSE = 0,13) für die Überwachung der Landwirtschaft besser geeignet sind als die anderen fusionierten synthetischen Produkte. Im dritten Kapitel wird untersucht, inwieweit die (in Kapitel 2 gewonnenen) synthetischen raum-zeitlichen Datensätze geeignet sind, die Ernteerträge von WW und OSR auf regionaler Ebene genau zu kartieren und zu überwachen. Das Kapitel untersucht und diskutiert die optimalen räumlichen (10 m, 30 m oder 250 m),zeitlichen (8 oder 16 Tage) und CGMs (World Food Studies (WOFOST) und den semi-empirischen Ansatz der Lichtnutzungseffizienz (LUE)) für genaue Ertragsschätzungen beider Kulturarten. Im dritten Kapitel wird festgestellt, dass die Beobachtung von Produkten mit hoher zeitlicher Auflösung (8 Tage) sowohl des S-MOD13Q1 als auch des L-MOD13Q1 eine wichtige Rolle bei der genauen Messung des Ertrags von WW und OSR spielt. In diesem Kapitel wird untersucht, dass das einfache Modell der Lichtnutzungseffizienz (LUE) (R2 = 0,77 und relativer RMSE (RRMSE) = 8,17 %), das weniger Eingabeparameter zur Simulation des Ernteertrags benötigt, sehr genau, zuverlässig und präziser ist als das komplexe WOFOST-Modell (R2 = 0,66 und RRMSE = 11,35 %) mit höheren Eingabeparametern. In Kapitel vier wird der Zusammenhang zwischen der raum-zeitlichen Fusionsmodellierung mit STRAFM und der Ertragsvorhersage für WW und OSR mit dem LUE-Modell für Bayern von 2001 bis 2019 untersucht. Das Kapitel stellt den hohen positiven Korrelationskoeffizienten (R) = 0,81 und R = 0,77 zwischen dem jährlichen R2 der synthetischen Genauigkeit und der modellierten Ertragsgenauigkeit für WW bzw. OSR von 2001 bis 2019 fest. In diesem Kapitel werden die Auswirkungen der Klimavariablen auf die Ertragsvorhersagen analysiert, wobei ein Anstieg des R2 (0,79 (WW)/0,86 (OSR)) und eine Verringerung des RMSE (4,51/2,57 dt/ha) festgestellt werden, wenn der Klimaeffekt in das Modell einbezogen wird. Das fünfte Kapitel deutet darauf hin, dass die Kopplung des LUE-Modells mit dem Random-Forest-Modell (RF) den relativen mittleren quadratischen Fehler (RRMSE) von -8 % (WW) und -1,6 % (OSR) weiter reduzieren und das R2 um 14,3 % (sowohl für WW als auch für OSR) erhöhen kann, verglichen mit Ergebnissen, die nur auf LUE beruhen. Das gleiche Kapitel kommt zu dem Schluss, dass die satellitengestützte Pflanzenbiomasse, die Sonneneinstrahlung und die Temperatur die einflussreichsten Variablen bei der Ertragsvorhersage für beide Kulturarten sind. In Kapitel sechs wird versucht, sowohl die Vor- als auch die Nachteile der RS-Technologie zu erörtern, indem die Auswirkungen der unterschiedlichen Landnutzung auf die modellierte Biomasse von WW und OSR analysiert werden. In diesem Kapitel wird festgestellt, dass die modellierte Biomasse beider Kulturen durch die Landnutzungsvielfalt bis zu einem Radius von 450 (Shannon Diversity Index ~0,75) bzw. 1050 m (~0,75) positiv beeinflusst wird. In diesem Kapitel werden auch künftige Auswirkungen erörtert, indem festgestellt wird, dass die Einbeziehung einiger abhängiger Faktoren (wie die angewandten Bewirtschaftungsmethoden, die Bodengesundheit, die Schädlingsbekämpfung und die Bestäuber) die Beziehung zwischen den mit RS modellierten Ernteerträgen und der biologischen Vielfalt verbessern könnte. Im siebten Kapitel schließlich wird die Erprobung neuer Sensoren wie unbemannte Luftfahrzeuge, hyperspektrale Sensoren oder Sentinel-1 SAR in der RS erörtert, um genaue Ertragsvorhersagen für die Präzisionslandwirtschaft zu erreichen. Darüber hinaus wird in diesem Kapitel die Bedeutung der künstlichen Intelligenz (KI) oder des Deep Learning (DL) für die Erzielung einer höheren Genauigkeit der Ernteerträge hervorgehoben. KW - Satellite Remote Sensing KW - Crop YIelds KW - Ernteertrag KW - Datenfusion KW - Landwirtschaft / Nachhaltigkeit KW - Winterweizen KW - Data Fusion KW - Sustainable Agriculture KW - Crop Growth Models KW - Winter wheat Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322581 N1 - eine "revised edition" der Arbeit finden Sie hier: https://doi.org/10.25972/OPUS-33052 ER - TY - THES A1 - Dhillon, Maninder Singh T1 - Potential of Remote Sensing in Modeling Long-Term Crop Yields T1 - Potenzial der Fernerkundung für die Modellierung Langfristiger Ernteerträge N2 - Accurate crop monitoring in response to climate change at a regional or field scale plays a significant role in developing agricultural policies, improving food security, forecasting, and analysing global trade trends. Climate change is expected to significantly impact agriculture, with shifts in temperature, precipitation patterns, and extreme weather events negatively affecting crop yields, soil fertility, water availability, biodiversity, and crop growing conditions. Remote sensing (RS) can provide valuable information combined with crop growth models (CGMs) for yield assessment by monitoring crop development, detecting crop changes, and assessing the impact of climate change on crop yields. This dissertation aims to investigate the potential of RS data on modelling long-term crop yields of winter wheat (WW) and oil seed rape (OSR) for the Free State of Bavaria (70,550 km2), Germany. The first chapter of the dissertation describes the reasons favouring the importance of accurate crop yield predictions for achieving sustainability in agriculture. Chapter second explores the accuracy assessment of the synthetic RS data by fusing NDVIs of two high spatial resolution data (high pair) (Landsat (30 m, 16-days; L) and Sentinel-2 (10 m, 5–6 days; S), with four low spatial resolution data (low pair) (MOD13Q1 (250 m, 16-days), MCD43A4 (500 m, one day), MOD09GQ (250 m, one-day), and MOD09Q1 (250 m, 8-days)) using the spatial and temporal adaptive reflectance fusion model (STARFM), which fills regions' cloud or shadow gaps without losing spatial information. The chapter finds that both L-MOD13Q1 (R2 = 0.62, RMSE = 0.11) and S-MOD13Q1 (R2 = 0.68, RMSE = 0.13) are more suitable for agricultural monitoring than the other synthetic products fused. Chapter third explores the ability of the synthetic spatiotemporal datasets (obtained in chapter 2) to accurately map and monitor crop yields of WW and OSR at a regional scale. The chapter investigates and discusses the optimal spatial (10 m, 30 m, or 250 m), temporal (8 or 16-day) and CGMs (World Food Studies (WOFOST), and the semi-empiric light use efficiency approach (LUE)) for accurate crop yield estimations of both crop types. Chapter third observes that the observations of high temporal resolution (8-day) products of both S-MOD13Q1 and L-MOD13Q1 play a significant role in accurately measuring the yield of WW and OSR. The chapter investigates that the simple light use efficiency (LUE) model (R2 = 0.77 and relative RMSE (RRMSE) = 8.17%) that required fewer input parameters to simulate crop yield is highly accurate, reliable, and more precise than the complex WOFOST model (R2 = 0.66 and RRMSE = 11.35%) with higher input parameters. Chapter four researches the relationship of spatiotemporal fusion modelling using STRAFM on crop yield prediction for WW and OSR using the LUE model for Bavaria from 2001 to 2019. The chapter states the high positive correlation coefficient (R) = 0.81 and R = 0.77 between the yearly R2 of synthetic accuracy and modelled yield accuracy for WW and OSR from 2001 to 2019, respectively. The chapter analyses the impact of climate variables on crop yield predictions by observing an increase in R2 (0.79 (WW)/0.86 (OSR)) and a decrease in RMSE (4.51/2.57 dt/ha) when the climate effect is included in the model. The fifth chapter suggests that the coupling of the LUE model to the random forest (RF) model can further reduce the relative root mean square error (RRMSE) from -8% (WW) and -1.6% (OSR) and increase the R2 by 14.3% (for both WW and OSR), compared to results just relying on LUE. The same chapter concludes that satellite-based crop biomass, solar radiation, and temperature are the most influential variables in the yield prediction of both crop types. Chapter six attempts to discuss both pros and cons of RS technology while analysing the impact of land use diversity on crop-modelled biomass of WW and OSR. The chapter finds that the modelled biomass of both crops is positively impacted by land use diversity to the radius of 450 (Shannon Diversity Index ~0.75) and 1050 m (~0.75), respectively. The chapter also discusses the future implications by stating that including some dependent factors (such as the management practices used, soil health, pest management, and pollinators) could improve the relationship of RS-modelled crop yields with biodiversity. Lastly, chapter seven discusses testing the scope of new sensors such as unmanned aerial vehicles, hyperspectral sensors, or Sentinel-1 SAR in RS for achieving accurate crop yield predictions for precision farming. In addition, the chapter highlights the significance of artificial intelligence (AI) or deep learning (DL) in obtaining higher crop yield accuracies. N2 - Die genaue Überwachung von Nutzpflanzen als Reaktion auf den Klimawandel auf regionaler oder feldbezogener Ebene spielt eine wichtige Rolle bei der Entwicklung von Agrarpolitiken, der Verbesserung der Ernährungssicherheit, der Erstellung von Prognosen und der Analyse von Trends im Welthandel. Es wird erwartet, dass sich der Klimawandel erheblich auf die Landwirtschaft auswirken wird, da sich Verschiebungen bei den Temperaturen, Niederschlagsmustern und extremen Wetterereignissen negativ auf die Ernteerträge, die Bodenfruchtbarkeit, die Wasserverfügbarkeit, die Artenvielfalt und die Anbaubedingungen auswirken werden. Die Fernerkundung (RS) kann in Kombination mit Wachstumsmodellen (CGM) wertvolle Informationen für die Ertragsbewertung liefern, indem sie die Entwicklung von Pflanzen überwacht, Veränderungen bei den Pflanzen erkennt und die Auswirkungen des Klimawandels auf die Ernteerträge bewertet. Ziel dieser Dissertation ist es, das Potenzial von RS-Daten für die Modellierung langfristiger Ernteerträge von Winterweizen (WW) und Ölraps (OSR) für den Freistaat Bayern (70.550 km2 ), Deutschland, zu untersuchen. Das erste Kapitel der Dissertation beschreibt die Gründe, die für die Bedeutung genauer Ernteertragsvorhersagen für die Nachhaltigkeit in der Landwirtschaft sprechen. Das zweite Kapitel befasst sich mit der Bewertung der Genauigkeit der synthetischen RS Daten durch die Fusion der NDVIs von zwei Daten mit hoher räumlicher Auflösung (hohes Paar) (Landsat (30 m, 16 Tage; L) und Sentinel-2 (10 m, 5-6 Tage; S) mit vier Daten mit geringer räumlicher Auflösung (niedriges Paar) (MOD13Q1 (250 m, 16 Tage), MCD43A4 (500 m, ein Tag), MOD09GQ (250 m, ein Tag) und MOD09Q1 (250 m, 8 Tage)) unter Verwendung des räumlich und zeitlich adaptiven Reflexionsfusionsmodells (STARFM), das Wolken- oder Schattenlücken in Regionen füllt, ohne räumliche Informationen zu verlieren. In diesem Kapitel wird festgestellt, dass sowohl L-MOD13Q1 (R2 = 0,62, RMSE = 0,11) als auch S-MOD13Q1 (R2 = 0,68, RMSE = 0,13) für die Überwachung der Landwirtschaft besser geeignet sind als die anderen fusionierten synthetischen Produkte. Im dritten Kapitel wird untersucht, inwieweit die (in Kapitel 2 gewonnenen) synthetischen raum-zeitlichen Datensätze geeignet sind, die Ernteerträge von WW und OSR auf regionaler Ebene genau zu kartieren und zu überwachen. Das Kapitel untersucht und diskutiert die optimalen räumlichen (10 m, 30 m oder 250 m),zeitlichen (8 oder 16 Tage) und CGMs (World Food Studies (WOFOST) und den semi-empirischen Ansatz der Lichtnutzungseffizienz (LUE)) für genaue Ertragsschätzungen beider Kulturarten. Im dritten Kapitel wird festgestellt, dass die Beobachtung von Produkten mit hoher zeitlicher Auflösung (8 Tage) sowohl des S-MOD13Q1 als auch des L-MOD13Q1 eine wichtige Rolle bei der genauen Messung des Ertrags von WW und OSR spielt. In diesem Kapitel wird untersucht, dass das einfache Modell der Lichtnutzungseffizienz (LUE) (R2 = 0,77 und relativer RMSE (RRMSE) = 8,17 %), das weniger Eingabeparameter zur Simulation des Ernteertrags benötigt, sehr genau, zuverlässig und präziser ist als das komplexe WOFOST-Modell (R2 = 0,66 und RRMSE = 11,35 %) mit höheren Eingabeparametern. In Kapitel vier wird der Zusammenhang zwischen der raum-zeitlichen Fusionsmodellierung mit STRAFM und der Ertragsvorhersage für WW und OSR mit dem LUE-Modell für Bayern von 2001 bis 2019 untersucht. Das Kapitel stellt den hohen positiven Korrelationskoeffizienten (R) = 0,81 und R = 0,77 zwischen dem jährlichen R2 der synthetischen Genauigkeit und der modellierten Ertragsgenauigkeit für WW bzw. OSR von 2001 bis 2019 fest. In diesem Kapitel werden die Auswirkungen der Klimavariablen auf die Ertragsvorhersagen analysiert, wobei ein Anstieg des R2 (0,79 (WW)/0,86 (OSR)) und eine Verringerung des RMSE (4,51/2,57 dt/ha) festgestellt werden, wenn der Klimaeffekt in das Modell einbezogen wird. Das fünfte Kapitel deutet darauf hin, dass die Kopplung des LUE-Modells mit dem Random-Forest-Modell (RF) den relativen mittleren quadratischen Fehler (RRMSE) von -8 % (WW) und -1,6 % (OSR) weiter reduzieren und das R2 um 14,3 % (sowohl für WW als auch für OSR) erhöhen kann, verglichen mit Ergebnissen, die nur auf LUE beruhen. Das gleiche Kapitel kommt zu dem Schluss, dass die satellitengestützte Pflanzenbiomasse, die Sonneneinstrahlung und die Temperatur die einflussreichsten Variablen bei der Ertragsvorhersage für beide Kulturarten sind. In Kapitel sechs wird versucht, sowohl die Vor- als auch die Nachteile der RS-Technologie zu erörtern, indem die Auswirkungen der unterschiedlichen Landnutzung auf die modellierte Biomasse von WW und OSR analysiert werden. In diesem Kapitel wird festgestellt, dass die modellierte Biomasse beider Kulturen durch die Landnutzungsvielfalt bis zu einem Radius von 450 (Shannon Diversity Index ~0,75) bzw. 1050 m (~0,75) positiv beeinflusst wird. In diesem Kapitel werden auch künftige Auswirkungen erörtert, indem festgestellt wird, dass die Einbeziehung einiger abhängiger Faktoren (wie die angewandten Bewirtschaftungsmethoden, die Bodengesundheit, die Schädlingsbekämpfung und die Bestäuber) die Beziehung zwischen den mit RS modellierten Ernteerträgen und der biologischen Vielfalt verbessern könnte. Im siebten Kapitel schließlich wird die Erprobung neuer Sensoren wie unbemannte Luftfahrzeuge, hyperspektrale Sensoren oder Sentinel-1 SAR in der RS erörtert, um genaue Ertragsvorhersagen für die Präzisionslandwirtschaft zu erreichen. Darüber hinaus wird in diesem Kapitel die Bedeutung der künstlichen Intelligenz (KI) oder des Deep Learning (DL) für die Erzielung einer höheren Genauigkeit der Ernteerträge hervorgehoben. KW - Accurate crop monitoring KW - Ernteertrag KW - Datenfusion KW - Landwirtschaft / Nachhaltigkeit KW - Winterweizen KW - Climate change KW - Remote sensing (RS) KW - Crop growth models (CGMs) KW - Synthetic RS data KW - Spatiotemporal fusion KW - Crop yield estimations KW - Light use efficiency (LUE) model KW - Random forest (RF) model KW - Land use diversity Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330529 N1 - die originale ursprüngliche Dissertation finden Sie hier: https://doi.org/10.25972/OPUS-32258 ER - TY - THES A1 - Werner, Lennart T1 - Terrain Mapping for Autonomous Navigation of Lunar Rovers T1 - Geländekartierung für die autonome Navigation von Mondrovern N2 - Autonomous mobile robots operating in unknown terrain have to guide their drive decisions through local perception. Local mapping and traversability analysis is essential for safe rover operation and low level locomotion. This thesis deals with the challenge of building a local, robot centric map from ultra short baseline stereo imagery for height and traversability estimation. Several grid-based, incremental mapping algorithms are compared and evaluated in a multi size, multi resolution framework. A new, covariance based mapping update is introduced, which is capable of detecting sub- cellsize obstacles and abstracts the terrain of one cell as a first order surface. The presented mapping setup is capable of producing reliable ter- rain and traversability estimates under the conditions expected for the Cooperative Autonomous Distributed Robotic Exploreration (CADRE) mission. Algorithmic- and software architecture design targets high reliability and efficiency for meeting the tight constraints implied by CADRE’s small on-board embedded CPU. Extensive evaluations are conducted to find possible edge-case scenar- ios in the operating envelope of the map and to confirm performance parameters. The research in this thesis targets the CADRE mission, but is applicable to any form of mobile robotics which require height- and traversability mapping. N2 - Autonome mobile Roboter, die in unkartiertem Terrain operieren, müs- sen ihre Fahrentscheidungen durch lokale Wahrnehmung steuern. Lo- kale Kartierung und Passierbarkeitsanalysen sind der Schlüssel für ei- nen sicheren Betrieb des Roboters und die Fortbewegung. Diese Arbeit beschäftigt sich mit der Herausforderung, eine lokale, roboterzentrierte Karte für Höhen- und Passierbarkeitsanalysen aus Stereobildern zu erstellen. Mehrere inkrementelle Kartierungsalgorithmen werden verglichen und in einem Framework mit verschiedenen Layern für Größen und Auflö- sungen implementiert und verglichen. Ein neues, kovarianzbasiertes Kartierungsupdate wird eingeführt, das in der Lage ist, Hindernisse unterhalb der Zellgröße zu erkennen. Dieser Algorithmus abstrahiert die Umgebung einer Zelle als Oberfläche erster Ordnung. Das vorgestellte Kartierungssystem ist in der Lage, zuverlässige Gelände- und Durchquerbarkeitsschätzungen unter den CADRE Bedingungen zu liefern. Das Design der Algorithmen- und Software-Architektur zielt auf hohe Zuverlässigkeit und Effizienz ab, um die engen Vorgaben der eingebet- teten CPUs an Bord zu wahren. Umfassende Evaluierungen werden durchgeführt, um mögliche Grenz- szenarien im Betriebsbereich der Karte zu finden und die Leistungs- parameter zu bestätigen. Die Forschung in dieser Arbeit zielt auf die CADRE-Mission ab, ist aber auf jede Form der mobilen Robotik an- wendbar, die Höhen- und Durchquerbarkeitsschätzungen erfordert. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 29 KW - Mondfahrzeug KW - mapping KW - navigation KW - hazard avoidance KW - lunar rover Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-358268 ER - TY - THES A1 - Krenzer, Adrian T1 - Machine learning to support physicians in endoscopic examinations with a focus on automatic polyp detection in images and videos T1 - Maschinelles Lernen zur Unterstützung von Ärzten bei endoskopischen Untersuchungen mit Schwerpunkt auf der automatisierten Polypenerkennung in Bildern und Videos N2 - Deep learning enables enormous progress in many computer vision-related tasks. Artificial Intel- ligence (AI) steadily yields new state-of-the-art results in the field of detection and classification. Thereby AI performance equals or exceeds human performance. Those achievements impacted many domains, including medical applications. One particular field of medical applications is gastroenterology. In gastroenterology, machine learning algorithms are used to assist examiners during interventions. One of the most critical concerns for gastroenterologists is the development of Colorectal Cancer (CRC), which is one of the leading causes of cancer-related deaths worldwide. Detecting polyps in screening colonoscopies is the essential procedure to prevent CRC. Thereby, the gastroenterologist uses an endoscope to screen the whole colon to find polyps during a colonoscopy. Polyps are mucosal growths that can vary in severity. This thesis supports gastroenterologists in their examinations with automated detection and clas- sification systems for polyps. The main contribution is a real-time polyp detection system. This system is ready to be installed in any gastroenterology practice worldwide using open-source soft- ware. The system achieves state-of-the-art detection results and is currently evaluated in a clinical trial in four different centers in Germany. The thesis presents two additional key contributions: One is a polyp detection system with ex- tended vision tested in an animal trial. Polyps often hide behind folds or in uninvestigated areas. Therefore, the polyp detection system with extended vision uses an endoscope assisted by two additional cameras to see behind those folds. If a polyp is detected, the endoscopist receives a vi- sual signal. While the detection system handles the additional two camera inputs, the endoscopist focuses on the main camera as usual. The second one are two polyp classification models, one for the classification based on shape (Paris) and the other on surface and texture (NBI International Colorectal Endoscopic (NICE) classification). Both classifications help the endoscopist with the treatment of and the decisions about the detected polyp. The key algorithms of the thesis achieve state-of-the-art performance. Outstandingly, the polyp detection system tested on a highly demanding video data set shows an F1 score of 90.25 % while working in real-time. The results exceed all real-time systems in the literature. Furthermore, the first preliminary results of the clinical trial of the polyp detection system suggest a high Adenoma Detection Rate (ADR). In the preliminary study, all polyps were detected by the polyp detection system, and the system achieved a high usability score of 96.3 (max 100). The Paris classification model achieved an F1 score of 89.35 % which is state-of-the-art. The NICE classification model achieved an F1 score of 81.13 %. Furthermore, a large data set for polyp detection and classification was created during this thesis. Therefore a fast and robust annotation system called Fast Colonoscopy Annotation Tool (FastCAT) was developed. The system simplifies the annotation process for gastroenterologists. Thereby the i gastroenterologists only annotate key parts of the endoscopic video. Afterward, those video parts are pre-labeled by a polyp detection AI to speed up the process. After the AI has pre-labeled the frames, non-experts correct and finish the annotation. This annotation process is fast and ensures high quality. FastCAT reduces the overall workload of the gastroenterologist on average by a factor of 20 compared to an open-source state-of-art annotation tool. N2 - Deep Learning ermöglicht enorme Fortschritte bei vielen Aufgaben im Bereich der Computer Vision. Künstliche Intelligenz (KI) liefert ständig neue Spitzenergebnisse im Bereich der Erkennung und Klassifizierung. Dabei erreicht oder übertrifft die Leistung von KI teilweise die menschliche Leistung. Diese Errungenschaften wirken sich auf viele Bereiche aus, darunter auch auf medizinische Anwendungen. Ein besonderer Bereich der medizinischen Anwendungen ist die Gastroenterologie. In der Gastroenterologie werden Algorithmen des maschinellen Lernens eingesetzt, um den Untersucher bei medizinischen Eingriffen zu unterstützen. Eines der größten Probleme für Gastroenterologen ist die Entwicklung von Darmkrebs, die weltweit eine der häufigsten krebsbedingten Todesursachen ist. Die Erkennung von Polypen bei Darmspiegelungen ist das wichtigste Verfahren zur Vorbeugung von Darmkrebs. Dabei untersucht der Gastroenterologe den Dickdarm im Rahmen einer Koloskopie, um z.B. Polypen zu finden. Polypen sind Schleimhautwucherungen, die unterschiedlich stark ausgeprägt sein können. Diese Arbeit unterstützt Gastroenterologen bei ihren Untersuchungen mit automatischen Erkennungssystemen und Klassifizierungssystemen für Polypen. Der Hauptbeitrag ist ein Echtzeitpolypenerkennungssystem. Dieses System kann in jeder gastroenterologischen Praxis weltweit mit Open- Source-Software installiert werden. Das System erzielt Erkennungsergebnisse auf dem neusten Stand der Technik und wird derzeit in einer klinischen Studie in vier verschiedenen Praxen in Deutschland evaluiert. In dieser Arbeit werden zwei weitere wichtige Beiträge vorgestellt: Zum einen ein Polypenerkennungssystem mit erweiterter Sicht, das in einem Tierversuch getestet wurde. Polypen verstecken sich oft hinter Falten oder in nicht untersuchten Bereichen. Daher verwendet das Polypenerkennungssystem mit erweiterter Sicht ein Endoskop, das von zwei zusätzlichen Kameras unterstützt wird, um hinter diese Falten zu sehen. Wenn ein Polyp entdeckt wird, erhält der Endoskopiker ein visuelles Signal. Während das Erkennungssystem die beiden zusätzlichen Kameraeingaben verarbeitet, konzentriert sich der Endoskopiker wie gewohnt auf die Hauptkamera. Das zweite sind zwei Polypenklassifizierungsmodelle, eines für die Klassifizierung anhand der Form (Paris) und das andere anhand der Oberfläche und Textur (NICE-Klassifizierung). Beide Klassifizierungen helfen dem Endoskopiker bei der Behandlung und Entscheidung über den erkannten Polypen. Die Schlüsselalgorithmen der Dissertation erreichen eine Leistung, die dem neuesten Stand der Technik entspricht. Herausragend ist, dass das auf einem anspruchsvollen Videodatensatz getestete Polypenerkennungssystem einen F1-Wert von 90,25 % aufweist, während es in Echtzeit arbeitet. Die Ergebnisse übertreffen alle Echtzeitsysteme für Polypenerkennung in der Literatur. Darüber hinaus deuten die ersten vorläufigen Ergebnisse einer klinischen Studie des Polypenerkennungssystems auf eine hohe Adenomdetektionsrate ADR hin. In dieser Studie wurden alle Polypen durch das Polypenerkennungssystem erkannt, und das System erreichte einen hohe Nutzerfreundlichkeit von 96,3 (maximal 100). Bei der automatischen Klassifikation von Polypen basierend auf der Paris Klassifikations erreichte das in dieser Arbeit entwickelte System einen F1-Wert von 89,35 %, was dem neuesten Stand der Technik entspricht. Das NICE-Klassifikationsmodell erreichte eine F1- Wert von 81,13 %. Darüber hinaus wurde im Rahmen dieser Arbeit ein großer Datensatz zur Polypenerkennung und -klassifizierung erstellt. Dafür wurde ein schnelles und robustes Annotationssystem namens FastCAT entwickelt. Das System vereinfacht den Annotationsprozess für Gastroenterologen. Die Gastroenterologen annotieren dabei nur die wichtigsten Teile des endoskopischen Videos. Anschließend werden diese Videoteile von einer Polypenerkennungs-KI vorverarbeitet, um den Prozess zu beschleunigen. Nachdem die KI die Bilder vorbeschriftet hat, korrigieren und vervollständigen Nicht-Experten die Annotationen. Dieser Annotationsprozess ist schnell und gewährleistet eine hohe Qualität. FastCAT reduziert die Gesamtarbeitsbelastung des Gastroenterologen im Durchschnitt um den Faktor 20 im Vergleich zu einem Open-Source-Annotationstool auf dem neuesten Stand der Technik. KW - Deep Learning KW - Maschinelles Lernen KW - Maschinelles Sehen KW - Machine Learning KW - Object Detection KW - Medical Image Analysis KW - Computer Vision KW - Gastroenterologische Endoskopie KW - Polypektomie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-319119 ER -