Maschinelles Lernen für Probleme in der Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Zusammenfassung der Projektergebnisse
In einer früheren Arbeiten haben wir gezeigt, dass die Verwendung geeigneter Priors die Lernleistung und Generalisierungsfähigkeit in der Robotik deutlich verbessert. Diese Methode war jedoch auf vollständig beobachtbare Szenarien, eine Zustandsrepräsentation ohne semantische Struktur und einfache Roboteraufgaben beschränkt. Die Motivation dieses Projekts war es, Methoden mit neuen Priors zu entwickeln und frühere Arbeiten auf komplexere Aufgaben auszuweiten. Als erstes haben wir die Annahme der vollständigen Beobachtbarkeit gelockert, da Roboter in der Realität nur über unvollständige Informationen über sich selbst und ihre Umgebung verfügen. Wir untersuchten diese partielle Beobachtbarkeit bei hochdimensionalen Inputs im Kontext von Zustandsschätzungsproblemen. Jonschkowski et al. kombinierten maschinelles Lernen mit bestehenden Zustandsschätzungsalgorithmen, die als algorithmische Priors fungierten. Im Vergleich zu Ansätzen des maschinellen Lernens ohne diese algorithmischen Priors zeigte unsere Methode eine signifikante Reduktion der Fehlerraten. Zweitens haben wir gezeigt, dass es möglich ist, strukturierte Zustandsrepräsentationen ohne Überwachung zu erlernen, indem Priors verwendet werden, die mit der Bewegung physischer Objekte in der realen Welt übereinstimmen. Diese Methode wurde erfolgreich auf verschiedene simulierte Roboteraufgaben angewandt, wie "Inverted Pendulum", "Cart-Pole" und "Ball-in-Cup". Hier lieferte die Methode Zustandsrepräsentationen, die den echten Systemzuständen sehr nahekamen. Drittens haben wir das Lernen von Repräsentationen von einer einzelnen Aufgabe auf mehrere Aufgaben ausgeweitet. Wir entwickelten ferner eine Methode zum Erlernen von Zustandsrepräsentationen für mehrere Aufgaben unter Verwendung der vorgestellten Roboter-Priors. Der Algorithmus führte in einem simulierten Multi-Task-Szenario zu besseren Strategien mit weniger Daten im Vergleich zu anderen Methoden. Schließlich haben wir die bisherigen Erkenntnisse auf komplexe Roboteraufgaben in der realen Welt ausgeweitet. Als Versuchsplattform wählten wir eine weiche, sensorisierte Roboterhand. Die Roboteraufgaben umfassten die Klassifizierung von Formen durch Manipulation mit der Hand und das Bewegen von Objekten auf einer Tischplatte. Wir identifizierten eine Hauptschwierigkeit in solchen Systemen: die nicht modellierten Störfaktoren, die mit dem komplexen Datenerzeugungsprozess zusammenhängen. Eine gute Zustandsdarstellung sollte solche Faktoren durch die Verwendung von Priors entflechten, und wir arbeiten weiterhin auf dieses Ziel hin.
Link zum Abschlussbericht
https://doi.org/10.34657/19901
Projektbezogene Publikationen (Auswahl)
-
PVEs: Position-Velocity Encoders for Unsupervised Learning of Structured State Representations. New Frontiers for Deep Learning in Robotics Workshop at RSS
Rico Jonschkowski, Roland Hafner, Jonathan Scholz & Martin Riedmiller
-
Differentiable Particle Filters: End-to-End Learning with Algorithmic Priors. Robotics: Science and Systems XIV. Robotics: Science and Systems Foundation.
Jonschkowski, Rico; Rastogi, Divyam & Brock, Oliver
-
Learning Robotic Perception Through Prior Knowledge. PhD Thesis.
Rico Jonschkowski
-
State Representation Learning with Robotic Priors for Partially Observable Environments. 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 6693-6699. IEEE.
Morik, Marco; Rastogi, Divyam; Jonschkowski, Rico & Brock, Oliver
-
Surprisingly Robust In-Hand Manipulation: An Empirical Study. Robotics: Science and Systems XVII. Robotics: Science and Systems Foundation.
Bhatt*, Aditya; Sieler*, Adrian; Puhlmann, Steffen & Brock, Oliver
