A Human-sized Humanoid Robotic System for whole-body manipulation
Zusammenfassung der Projektergebnisse
Die Nutzung von menschenähnlichen Robotern gehört seit langem zu den größten Herausforderungen in der Robotik. Der menschengroße humanoide Roboter, den der Lehrstuhl für kognitive Systeme mit Hilfe des Großgeräteantrags erwarb, ist der erste menschengroße Roboter am Lehrstuhl und wurde H-1 getauft hat. Die Lehrstuhlmitarbeiter sind aus unterschiedlichen Forschungsbereichen, von Elektrotechnik über Informatik, Neurowissenschaften bis zur der Psychologie. Ihr Ziel ist, durch die Verbindung von Ingenieur- und Naturwissenschaften bessere technische Systeme zu entwickeln und dadurch mehr über den Menschen lernen. Durch die größere Komplexität und Fähigkeiten des humanoiden Roboters – im Vergleich zu den existierenden Plattformen am Lehrstuhl – können nun neue Themen bearbeitet werden. Seit der Anschaffung wurden/werden eine Reihe von Doktor- und Masterarbeiten am Lehrstuhl geschrieben, die ohne diesen Robotertyp nicht möglich gewesen wären. Das Gerät trägt so maßgeblich zu einer Verbesserung der Forschungsqualität bei. Die bisherigen Forschungsarbeiten an H-1 lassen sich in drei Abschnitte teilen: 1) Einarbeitung in die Plattform, 2) Implementieren und testen der State of the Art-Algorithmen und 3) die Entwicklung von neuen Steuerungsansätzen und Anwendungen. 1) Einarbeitung in die Plattform (1. Jahr): Die Mitarbeiter testeten den Roboter im ROS-Gazebo Simulator. So konnten sie sich mit der Architektur, dem Zugang, der Kinematik, Dynamik und den Sensoren vertraut machen, bevor die Arbeit am echten Roboter begann. 2) Implementieren und testen der State of the Art-Algorithmen: Diese dem Stand der Technik entsprechenden Ansätze sind bekannt und liefern robuste Algorithmen, die zur Entwicklung von Softwaretools für H-1 verwendet werden. Dazu wurde eine Programm-Bibliothek (verwendet die C++ Eigen- Programmbibliothek) angelegt, die die häufigsten algebraischen Operationen des Roboters enthält. Außerdem wurde eine Tool-Programm-Bibliothek aufgebaut, die alle generischen Software-Tools für den Roboter enthält. Diese wurden alle in Debian-Pakete (*.deb) integriert (z.B: Butterworth-Filter 2. Ordnung, Spline Generator 7. Ordnung). Weiterhin wurde eine Bibliothek für allgemeine Roboterfunktionen angelegt. Diese Bibliothek enthält Algorithmen zur Berechnung der direkten kinematischen Modelle des Roboters (einschließlich der differentiellen Kinematik) und der direkten und inversen dynamischen Modelle, inkl. eines robusten inversen kinematischen Modells, das auf dem Damped-Jacobian-Ansatz basiert. Außerdem wurden verschiedene Techniken zur einfachen Generierung von Bewegungsabläufen implementiert, um die jeweils beste für diesen Robotertyp herauszufinden. Es wurden robuste Odometrieansätze erfasst, um die Veränderung in der Position über die Zeit zu berechnen. Dabei wurden verschiedene Sensoren des Roboters fusioniert. Die wichtigste Bibliothek ist die „General Control Library“. Hier befinden sich robuste Algorithmen zur Steuerung der Robotergelenke, Steuerungsansätze zur Steuerung der Kommandokräfte (Force Control) sowie Echtzeit-Steuerungstechniken zur Kollisionsvermeidung, einschließlich der Generierung von Bewegungsabläufen für Not-Aus und Wiederherstellung. Alle diese Steuerungen wurden in den „Echtzeit-Walking Controller“ implementiert. Ergänzend zu nennen sind: die Implementierung von fortschrittlichen Optimierungstechniken (Quadratic Programming), um optimale Trajektorien für H-1 zu generieren sowie verschiedene hierarchische Task-Execution-Ansätze, um den für unsere Steuerungsarchitektur am besten geeigneten zu definieren. Diese hierarchischen Ansätze ermöglichen die Umsetzung mehrerer Regelstrategien für einen Regelausgang. 3) Entwicklung neuer Steuerungsansätze: Alle Vorarbeiten für die Fortbewegung auf zwei Beinen und deren Steuerung waren abgeschlossen, nun wurde die existierende Technik weiterentwickelt. Unsere erste Anwendung nutzt den robusten Gelenk-Regler, um eine semantische menschliche Handlungslogik für Dual- Arm-Aufgaben zu entwickeln. Hier führt der Roboter Aktionen aus, die ein Benutzer in der Küche vorführt. Der Roboter verarbeitet das Videofeedback, um die Abfolge der menschlichen Handlungen zu erhalten und sie in einer abstrakten Form darzustellen. Diese Abstraktion ermöglicht die Übertragung und Ausführung der Aktionen in Roboterfähigkeiten. Im Bereich der Navigation wurden LIDAR–Sensoren in die Füße von H1 integriert, um Onlinekarten für die adaptive Navigation zu erhalten. Dies erforderte eine eigens entwickelte Halterung und eine neue 3D-gedruckte Verkleidung. Die nächste Implementierung war der robuste „Walking-Controller“, basierend auf „Capture Point Dynamics“. Wir haben einen inversen kinematischen Ansatz erweitert, der Damped-Jacobians verwendet. Dieser kann die Gelenkgrenzen und kinematischen Singularitäten bewältigen. Außerdem implementierten wir eine Kraftkontrolle für Manipulationen mit beiden Armen und benutzen hierzu die Kraft/Drehmomentsensoren seinen Handgelenken. Die Idee ist, dass H-1 so schwere Gegenstände mit beiden Armen handhaben kann. H-1 verfügt über zwei Kommandoschnittstellen: Positions- und Drehmomentsteuerung. Die genannten Anwendungen wurden über die Positionssteuerung realisiert. Für die Drehmomentsteuerung, d.h. die direkte Steuerung der Kräfte, die der Aktor auf die Gelenke ausübt, entwickelten wir eine Drehmomentregelung, die aus dem Robotermodell ein adaptives Signal zur Kompensation der unbekannten Gleitreibung in den Gelenken berechnet. Video unter: https://www.youtube.com/watch?v=U4G-JdcP-nM
Projektbezogene Publikationen (Auswahl)
- Robust Semantic Representations for Inferring Human Co-manipulation Activities even with Different Demonstration Styles, 15th IEEE-RAS International Conference on Humanoid Robots, 2015
Karinne Ramirez-Amaro, Emmanuel Dean-Leon, and Gordon Cheng
(Siehe online unter https://doi.org/10.1109/HUMANOIDS.2015.7363496)