Detailseite
Sensorfusion für mobile autonome Robotik in unstrukturierten natürlichen Umgebungen
Antragsteller
Professor Dr.-Ing. Dietrich Paulus
Fachliche Zuordnung
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung von 2011 bis 2017
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 195328341
Terrainklassifikation, Navigation und Kartierung für ein autonomes mobiles System werden für den nicht-urbanen Bereich realisiert. Die Verfahren arbeiten mit den Daten von 3D Laserscannern, Lage- und Odometriesensoren, GPS und Farbbildkameras. Durch Fusion der Sensordaten werden zusätzliche Informationen in die Lasermessungen integriert und zur Erstellung einer semantischen 3D Karte fusioniert. Der Ansatz wird in der Lage sein, mit einer Vielzahl von Unsicherheiten in unstrukturiertem Gelände umzugehen, ohne auf vorgefertigte Karten- oder Routeninformationen angewiesen zu sein. Daher muss die Bodenbeschaffenheit möglichst exakt analysiert und interpretiert werden, um eine bestmögliche Route planen zu können. Erkannte Hindernisse werden als statische oder dynamische Objekte klassifiziert, beispielsweise als Wald, Weg oder Fahrzeug und als Semantik in die 3D Karte eingetragen. Dadurch wird dem autonomen Fahrzeug eine Entscheidungshilfe für die Pfadplanung und sichere Navigation in unbekanntem Gelände zur Verfügung gestellt. Der beschriebene Ansatz grenzt sich durch vollständige Fusion und Integration aller Sensoren zur Navigation und Erstellung einer echtzeitfähigen semantischen 3D Karte von bisherigen Arbeiten ab. Die erste Erweiterung zum bisherigen Antrag sieht die Erstellung eines semantischen Markov Zufallsfeldes zur Terrainklassifikation vor. Diese soll in der Lage sein semantische Informationen über erkannte Objekte im Umfeld des Roboters in den Klassifikationsprozess zu integrieren. Dazu zählt beispielsweise das Wissen, das Fahrzeuge auf Straßen oder möglichst gut befahrbaren Oberflächen fahren, welches dafür genutzt werden kann die Klassifikation in Bereichen anzupassen in denen sich andere dynamische Hindernisse bewegen. Die zweite Erweiterung betrifft die entwickelten Verfahren zur Erstellung von Karten aus 3D-Laserscans. Hier soll ein neues Verfahren entwickelt werden, was es dem Roboter erlaubt, eine bestehende Karte über einen längeren Zeitraum hinweg zu pflegen, und zu erweitern, selbst wenn der Roboter zwischendurch ausgeschaltet und neu gestartet wurde. Weiterhin soll zur Steigerung der Robustheit der Kartierung ein neuartiges Verfahren entwickelt und erprobt werden, welches mehrere grundverschiedene Hypothesen über den Verlauf der Trajektorie pflegt. Insbesondere soll nicht nun nicht mehr nur noch eine wahrscheinliche Trajektorie betrachtet werden. Somit wird es möglich, bessere Entscheidungen über die Datenassoziation zu treffen.
DFG-Verfahren
Sachbeihilfen