Detailseite
BigPlantSens - Untersuchung der Synergien von Big Data und Deep Learning für die Fernerkundung von Pflanzenarten
Antragsteller
Dr. Teja Kattenborn
Fachliche Zuordnung
Ökologie und Biodiversität der Pflanzen und Ökosysteme
Forstwissenschaften
Geodäsie, Photogrammetrie, Fernerkundung, Geoinformatik, Kartographie
Physische Geographie
Forstwissenschaften
Geodäsie, Photogrammetrie, Fernerkundung, Geoinformatik, Kartographie
Physische Geographie
Förderung
Förderung seit 2020
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 444524904
Verschiedene Aufgabengebiete - darunter Forschung, Naturschutz und wirtschaftliche Aktivitäten wie Forstwirtschaft, Landwirtschaft oder Ökosystemdienstleistungen - erfordern genaue Informationen über die geographische Verteilung von Pflanzenarten. Neuartige, sehr hochauflösender Satellitenmissionen und unbemannter Luftfahrzeuge (UAV) bieten eine wachsende Verfügbarkeit von Erdbeobachtungsdaten, die sowohl hohe räumliche als auch zeitliche Details von Vegetationsmustern offenbaren. Daher sind effiziente Methoden erforderlich, um diese wachsende Informationsquelle für Vegetationsanalysen nutzen zu können.Im Bereich der Vegetationsfernerkundung revolutionieren Deep Learning-Verfahren wie Convolutional Neural Networks (CNN) derzeit die Möglichkeiten der Muster- und Objekterkennung. Es ist daher erwartet, dass CNN, zusammen mit den Fortschritten in der hochauflösenden Sensorik, unsere Möglichkeiten zur Bestimmung von Vegetationsmustern erweitern wird. Allerdings benötigt CNN in der Regel umfangreiche Referenzbeobachtungen, um die entscheidenden Bildmerkmale zu erlernen. Ein Big Data-Ansatz könnte die für das Training der CNN-Modelle erforderlichen Bilddaten liefern. Aufgrund der wachsenden Bemühungen im Kontext Open Data sind solche Bilddatensätze frei zugänglich und wachsen stetig. Verschiedene Initiativen (z.B. CLEF; GBIF, Pl@ntNet) liefern eine große Menge an Bilddaten mit dem dazugehörigen Pflanzennamen. Allerdings sind diese Bilddaten hinsichtlich ihrer Aufnahmegeometrie und Bildqualität sehr heterogen. Es ist also unklar, ob CNN-Modelle, die mit solchen Bilddatensätzen trainiert wurden, direkt auf sehr hochauflösende Erdbeobachtungsdaten übertragbar sind.Dementsprechend wollen wir in dem vorgeschlagenen Projekt die Synergien von Big Data mit hochauflösenden Erdbeobachtungsdaten für eine vollautomatische Vegetationskartierung untersuchen. Der vorgeschlagene Ansatz verwendet Big Data in Form von frei verfügbaren Bildern, die mit Artennamen versehen sind, um CNN-Modelle zu trainieren. Die trainierten Modelle werden dann auf hochauflösende Erdbeobachtungsdaten angewendet, um die räumliche Verteilung der Zielarten zu kartieren. Dabei wird untersucht, welche Merkmale der für das Training verwendeten Bilder die Genauigkeit der Kartierung beeinflussen (z.B. Aufnahmegeometrie, Bildqualität). Desweiteren soll ein Algorithmus entwickelt werden, der das Filtern der Bilddaten nach diesen Merkmalen vor dem Training ermöglicht. Konkret sind unsere Forschungsfragen:1) Wie genau kann die räumliche Verteilung verschiedener Pflanzenarten mit dem vorgeschlagenen Big Data Ansatz in Kombination mit Deep Learning und sehr hochauflösenden Fernerkundungsdaten identifiziert werden?2) Was sind die kritischen Faktoren, die den Wert von Big Data-basierten Bilddatensätzen für das CNN-Training bestimmen und können diese effizient mit Deep Learning gefiltert werden?3) Wie begrenzt die räumliche Auflösung von Erdbeobachtungsdaten die Identifizierung der Pflanzenarten?
DFG-Verfahren
Sachbeihilfen