Mobile Manipulation in natürlichen Umgebungen - "TidyUpRobot"
Zusammenfassung der Projektergebnisse
Das Projekt Mobile Manipulation in natürlichen Umgebungen – "TidyUpRobot" war Teil eines arbeitsgruppenübergreifenden Projekts an der Albert-Ludwigs-Universität Freiburg im Rahmen des PR2-Beta Programms von Willow Garage. Durch die Auswahl als eines von weltweit nur 11 erfolgreichen Projektvorschlägen, bot sich den Projektteilnehmern die Chance, einen kostenlos bereitgestellten Willow Garage PR2-Roboter zu nutzen, um den Stand der Technik im Bereich mobiler, persönlicher Roboter zum Einsatz in Haushaltsumgebungen voranzubringen. Im Rahmen der Sachbeihilfe für die Gruppe Riedmiller wurde an Lernverfahren gearbeitet, um möglichst effizient Greifverhalten auf realen Roboterplattformen eintrainieren zu können, die als Grundlage von komplexeren Verhalten für Haushaltsroboter dienen können. Dazu wurden höchst dateneffiziente Reinforcement Learning Algorithmen entwickelt, die in extrem kurzer Zeit in der Lage sind, reaktive Regler für Systeme mit unbekannter Dynamik und Echtzeitanforderungen zu lernen. Weiterhin wurden neue Ansätze für reaktives Greifen von beweglichen Objekten vorgestellt, die auch Einschränkungen der Greifmöglichkeiten durch Hindernisse erfolgreich berücksichtigen können. Über die eigentlichen Arbeiten in den Arbeitspaketen hinausgehend wurde außerdem eine Methode für die gleichzeitige Verfolgung von mehreren Objekten im Sichtfeld einer Roboterkamera entwickelt. Alle Softwarekomponenten sind als Module für Open Source Software entwickelt worden und zum großen Teil bereits öffentlich verfügbar (http://ml.informatik.uni-freiburg.de/research/tidyuprobot).
Projektbezogene Publikationen (Auswahl)
-
„Acquiring Visual Servoing Reaching and Grasping Skills using Neural Reinforcement Learning“. In: IEEE International Joint Conference on Neural Networks (IJCNN 2013). Dallas, TX, 2013
T. Lampe und M. Riedmiller
-
„Approximate Model-Assisted Neural Fitted Q- Iteration“. In: IEEE International Joint Conference on Neural Networks (IJCNN 2014). Beijing, China, 2014
T. Lampe und M. Riedmiller
-
„Approximate Real-Time Optimal Control Based on Sparse Gaussian Process Models“. In: Adaptive Dynamic Programming and Reinforcement Learning (ADPRL). 2014
J. Boedecker, J. T. Springenberg, J. Wülfing und M. Riedmiller