Detailseite
Projekt Druckansicht

Lokale Wahrnehmung für die autonome Navigation von Multikoptern

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Physik des Erdkörpers
Förderung Förderung von 2011 bis 2020
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 166047863
 
Erstellungsjahr 2020

Zusammenfassung der Projektergebnisse

Ziel des Projektes war die Entwicklung von Verfahren zur Umgebungswahrnehmung für die autonome Navigation von Multikoptern. In der ersten Projektphase wurde die egozentrische und allozentrische Kartierung auf Basis von Laserdaten umgesetzt. Dabei wurden zwei Verfahren entwickelt, die Laserscans in Multiresolutions-Surfel-Karten bzw. mittels Vermaschung lokal registrieren. Die lokalen Karten wurden dann in re-gelmäßigen Abständen als Schlüsselansichten gespeichert und gegeneinander registriert. Die Registrierungsfehler wurden in einem Posen-Graphen optimiert, um eine global konsistente Karte zu erhalten. Darauf aufbauend wurden in der zweiten Phase erweiterte Funktionalitäten realisiert und weitere Modalitäten für die Wahrnehmung der Schwebeplattform integriert. Um die Sicherheit und Robustheit bei der Detektion von Hindernissen zu erhöhen, wurden Sensoren weiterer Modalitäten wie Radar, RGB-D, Stereo- und Thermalkameras hinsichtlich ihrer Eigenschaften untersucht und bei Eignung integriert. Zur Komplementierung der bisher nur auf Laserscannern basierenden lokalen 3D-Kartierung wurden mehrere Kartierungsverfahren für Multikamerasysteme entwickelt und visuelle Merkmalspunkte in die lokale Laser-3D-Kartierung integriert. Zusätzlich wurden getroffene Entscheidungen innerhalb der lokalen Karten in regelmäßigen Abständen überprüft und Punktwolken bei Bedarf neu registriert. In der allozentrischen 3D-Kartierung wurden lokale Karten als Subgraphen modelliert und die Sensorbewegung mit zeitkontinuierlichen Splines approximiert, um Versätze bei der Scanaggregation zu minimieren. Ein hierarchischer Ansatz sorgt für die Optimierung sowohl innerhalb der Subgraphen als auch auf globaler Ebene. Verbleibende Registrierungsfehler werden zudem zur Verbesserung der Sensorkalibrierung während der Laufzeit genutzt. Dies beinhaltet sowohl pixelweise Korrekturfaktoren für Tiefenbilder von RGB-D Kameras, als auch für die Vignettierung von Objektiven und Änderungen in der Belichtungszeit. Messungen von Personen und bewegten Objekten erschweren die Kartierung und können die Lokalisationsgenauigkeit reduzieren. Daher wurden diese detektiert, in ihrer Bewegung modelliert und aus den statischen Karten entfernt. Die 3D-Umgebungsrepräsentationen wurden auch um semantiche Kategorisierung von Oberflächen erweitert. Die gemessenen Oberflächen wurden durch ein Mesh dargestellt und bildbasierte Kategorisierung probabilistisch auf semantischen Texturen fusioniert. Die Fusion ermoglicht konsistente Labels zurück zu propagieren und die Klassifikatoren von aus anderen Perspektiven aufgenommen Bildern selbstüberwacht zu trainieren. Die Arbeiten erfolgten in enger Zusammenarbeit mit anderen Teilprojekten der Forschergruppe. Sie dienen in Teilprojekt P3 als Grundlage für die sichere Navigation in der Nähe von Hindernissen. In enger Kooperation mit den Teilprojekten P1 und P4 wurde zudem die Sensorik am Versuchskopter integriert und zusammen mit P4 und P7 ein Laserdatensatz mit semantischen Annotationen versehen.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung