Detailseite
Projekt Druckansicht

DEXMAN: Verbesserte Manipulationsfähigkeiten von Robotern durch Lernen steifigkeitsbasierter Handsteuerung nach dem Vorbild des Menschen und visuo-taktile Exploration

Antragsteller Dr. Qiang Li, Ph.D.; Professor Dr. Jianwei Zhang, seit 12/2020
Fachliche Zuordnung Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2019 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 410916101
 
Obwohl der menschlichen Hand nachempfundene Roboterhände mit vergleichbaren Fähigkeiten ein in der Robotik über viele Jahre hinweg und mit sehr großem Einsatz angestrebtes Ziel sind, bieten zuverlässiges Greifen neuer Objekte und die Manipulation einesObjekts oder Werkzeugs immer noch weiten Teilen ungelöste Herausforderungen. Vor diesem Hintergrund will das vorliegende Projekts einen neuartigen, integrierten Ansatz für robustes, geschickliches Greifen und in-Hand Manipulation durch ein Robotersystem erforschen.Kernidee ist dabei eine Verbindung dreier Schlüsseltechnologien: - ein neuer Ansatz augmentierter Dynamischer Bewegungsprimitive (DMP), der Sensorinformation einbettet, um menschliche Bewegungsfähigkeiten zu extrahieren und für neue Aufgaben zu generalisieren.- Modellrekonstruktion und Verfolgung eines unbekannten Objekts unter Ausnutzung interaktiver Manipulation und multimodalem Feedback- Ein multisensorfusions-basiertes adaptives Greif- und Manipulationsrahmenwerk, das Lernen menschlicher Sensomotorik-Fähigkeiten für Verbesserungen nutzt.Als Wissensbasis für einen verallgemeinerungsfähigen Skill-Transfer vom Menschen zum Roboter Hand-Arm-System wird eine Datenbank von Bewegungsprimitiven aufgebaut. Besondere Aufmerksamkeit liegt dabei auf der Repräsentation von Bewegungssteifigkeiten und Fingerlaufmustern bei der Manipulation. Als zentrale Generalisierungsparameter werden Objektgröße, Form und Steifigkeit fokussiert. Diese Parameter werden von einem adaptiven, hierarchisch strukturierten Steuer- und Regelungssystem für Manipulationsaktionen on-line identifiziert, indem multimodales Feedback und Information aus explorativen, uni- und bi-manualen Bewegungen des Objekts fusioniert werden. Zugleich wird multimodales Feedback dafür genutzt, Abweichungen generalisierter Bewegungs- und Steifigkeitstrajektorien zu korrigieren. Die Leistungsfähigkeit des so realisierten, integrierten Ansatzes werden anhand einer typischen Aufgabe demonstriert, wie etwa Ergreifen eines Messers und Schneiden eines Stücks Obst durch einen Roboter.In dem Projekt verbinden drei Institute mit sehr guter Ausgewiesenheit in Lernverfahren für menschliche Bewegungsfertigkeiten (SCUT), visuo-taktiler Erkennung und Interaktion (CITEC at UNIBI) und adaptivem, visuo-taktilem Greifen und Mehrfingermanipulation (DLR) ihre Expertisen auf das gemeinsame Ziel.
DFG-Verfahren Sachbeihilfen
Internationaler Bezug China
Kooperationspartner Professor Dr. Chenguang Yang
Ehemaliger Antragsteller Professor Dr. Zhaopeng Chen, bis 12/2020
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung