Detailseite
Projekt Druckansicht

BigPlantSens - Untersuchung der Synergien von Big Data und Deep Learning für die Fernerkundung von Pflanzenarten

Antragsteller Dr. Teja Kattenborn
Fachliche Zuordnung Ökologie und Biodiversität der Pflanzen und Ökosysteme
Forstwissenschaften
Geodäsie, Photogrammetrie, Fernerkundung, Geoinformatik, Kartographie
Physische Geographie
Förderung Förderung seit 2020
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 444524904
 
Verschiedene Aufgabengebiete - darunter Forschung, Naturschutz und wirtschaftliche Aktivitäten wie Forstwirtschaft, Landwirtschaft oder Ökosystemdienstleistungen - erfordern genaue Informationen über die geographische Verteilung von Pflanzenarten. Neuartige, sehr hochauflösender Satellitenmissionen und unbemannter Luftfahrzeuge (UAV) bieten eine wachsende Verfügbarkeit von Erdbeobachtungsdaten, die sowohl hohe räumliche als auch zeitliche Details von Vegetationsmustern offenbaren. Daher sind effiziente Methoden erforderlich, um diese wachsende Informationsquelle für Vegetationsanalysen nutzen zu können.Im Bereich der Vegetationsfernerkundung revolutionieren Deep Learning-Verfahren wie Convolutional Neural Networks (CNN) derzeit die Möglichkeiten der Muster- und Objekterkennung. Es ist daher erwartet, dass CNN, zusammen mit den Fortschritten in der hochauflösenden Sensorik, unsere Möglichkeiten zur Bestimmung von Vegetationsmustern erweitern wird. Allerdings benötigt CNN in der Regel umfangreiche Referenzbeobachtungen, um die entscheidenden Bildmerkmale zu erlernen. Ein Big Data-Ansatz könnte die für das Training der CNN-Modelle erforderlichen Bilddaten liefern. Aufgrund der wachsenden Bemühungen im Kontext Open Data sind solche Bilddatensätze frei zugänglich und wachsen stetig. Verschiedene Initiativen (z.B. CLEF; GBIF, Pl@ntNet) liefern eine große Menge an Bilddaten mit dem dazugehörigen Pflanzennamen. Allerdings sind diese Bilddaten hinsichtlich ihrer Aufnahmegeometrie und Bildqualität sehr heterogen. Es ist also unklar, ob CNN-Modelle, die mit solchen Bilddatensätzen trainiert wurden, direkt auf sehr hochauflösende Erdbeobachtungsdaten übertragbar sind.Dementsprechend wollen wir in dem vorgeschlagenen Projekt die Synergien von Big Data mit hochauflösenden Erdbeobachtungsdaten für eine vollautomatische Vegetationskartierung untersuchen. Der vorgeschlagene Ansatz verwendet Big Data in Form von frei verfügbaren Bildern, die mit Artennamen versehen sind, um CNN-Modelle zu trainieren. Die trainierten Modelle werden dann auf hochauflösende Erdbeobachtungsdaten angewendet, um die räumliche Verteilung der Zielarten zu kartieren. Dabei wird untersucht, welche Merkmale der für das Training verwendeten Bilder die Genauigkeit der Kartierung beeinflussen (z.B. Aufnahmegeometrie, Bildqualität). Desweiteren soll ein Algorithmus entwickelt werden, der das Filtern der Bilddaten nach diesen Merkmalen vor dem Training ermöglicht. Konkret sind unsere Forschungsfragen:1) Wie genau kann die räumliche Verteilung verschiedener Pflanzenarten mit dem vorgeschlagenen Big Data Ansatz in Kombination mit Deep Learning und sehr hochauflösenden Fernerkundungsdaten identifiziert werden?2) Was sind die kritischen Faktoren, die den Wert von Big Data-basierten Bilddatensätzen für das CNN-Training bestimmen und können diese effizient mit Deep Learning gefiltert werden?3) Wie begrenzt die räumliche Auflösung von Erdbeobachtungsdaten die Identifizierung der Pflanzenarten?
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung