SAROPT: SAR-optisches Stereo für urbane Szenen
Zusammenfassung der Projektergebnisse
Das wissenschaftliche Ziel des SAROPT-Projekts war die Entwicklung und Untersuchung von Methoden zur stereogrammetrischen Fusion von optischen und SAR-Fernerkundungsdaten zur Rekonstruktion von 3D-Informationen in urbanen Gebieten. Dabei wurde früh im Priojektverlauf erkannt, dass das Hauptaugenmerk auf Ansätze des Deep Learning zur automatischen Zuordnung korrespondierender Bildbereiche in SAR-optischen Bildpaaren gelegt werden muss. Die Hauptherausforderung in diesem Kontext war die geringe Verfügbarkeit hinreichend großer Mengen an Trainingsdaten. Aus diesem Grund wurden einerseits neue Datensätze produziert, andererseits moderne Ansätze des maschinellen Lernens unter reduzierter Datenverfügbarkeit entwickelt und untersucht. Im Endergebnis wurde eine komplett Deep Learning-basierte Prozesskette entwickelt, die unter Verwendung dreier verschiedener Teilnetzwerke alle notwendigen Arbeitsschritte modelliert: die Identifikation von für eine Bildzuordnung geeigneten Bildbereichen, die Bestimmung der Ähnlichkeit zwischen potenziell korrespondierenden Bildbereichen, und schließlich die Reduktion von Ausreißern. In umfangreichen Experimenten konnte gezeigt werden, dass das Verfahren eine bessere Performanz aufweist, als vergleichbare Verfahren, die bislang den Stand der Technik definiert hatten. Neben den Untersuchungen zu Deep Learning für die Zuordnung von SAR- und optischen Bildern wurden im Projekt Ansätze zur Stereorekonstruktion aus SAR-optischen Multisensor-Messungen mit Hilfe klassischer Triangulation entwickelt und untersucht. Es konnte gezeigt werden, dass eine solche Rekonstruktion grundsätzlich mit Pixel- oder sogar Subpixelgenauigkeit möglich ist, sofern die Daten in geeigneter Aufnahmegeometrie gewonnen wurden und das Problem der Bildzuordnung robust gelöst ist. Insgesamt hat das Vorhaben wichtige Beiträge zu einer Weiterentwicklung der SAR-optischen Datenfusion geleistet.
Projektbezogene Publikationen (Auswahl)
-
(2018) The SEN1-2 dataset for deep learning in SAR-optical data fusion. In: ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences 4-1: 141-146
Schmitt M, Hughes LH, Zhu X
-
(2018) A framework for SAR-optical stereogrammetry over urban areas. ISPRS Journal of Photogrammetry and Remote Sensing 146: 389-408
Bagheri H, Schmitt M, d‘Angelo P, Zhu X
-
(2018) Identifying corresponding patches in SAR and optical images with a pseudo-siamese CNN. IEEE Geoscience and Remote Sensing Letters 15 (5): 784-788
Hughes LH, Schmitt M, Mou L, Wang Y, Zhu X
-
(2018) Mining hard negative samples for SAR-optical image matching using generative adversarial networks. Remote Sensing 10 (10): 1552
Hughes LH, Schmitt M, Zhu X
-
(2018) Towards automatic SAR-optical stereogrammetry over urban areas using very high resolution images. ISPRS Journal of Photogrammetry and Remote Sensing 138: 218-231
Qiu C, Schmitt M, Zhu X
-
(2019) Matching of TerraSAR-X derived ground control points to optical image elements using deep learning. ISPRS Journal of Photogrammetry and Remote Sensing 158: 241-248
Bürgmann T, Koppe W, Schmitt M
-
(2020) A deep learning framework for sparse matching of SAR and optical imagery. ISPRS Journal of Photogrammetry and Remote Sensing 169: 166-179
Hughes LH, Marcos D, Lobry S, Tuia D