Detailseite
Projekt Druckansicht

DEXMAN: Verbesserte Manipulationsfähigkeiten von Robotern durch Lernen steifigkeitsbasierter Handsteuerung nach dem Vorbild des Menschen und visuo-taktile Exploration

Antragsteller Qiang Li, Ph.D.; Professor Dr. Jianwei Zhang, seit 12/2020
Fachliche Zuordnung Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2019 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 410916101
 
Erstellungsjahr 2023

Zusammenfassung der Projektergebnisse

Die Robotiker haben enorme Anstrengungen unternommen, um die menschliche Hand nachzuahmen, nicht nur in Bezug auf die Form, sondern auch hinsichtlich der Funktionalitäten. Die robuste Erfassung und Manipulation eines unbekannten Objekts/Werkzeugs stellt jedoch immer noch eine offene Frage dar, die gründlich gelöst werden muss. Dies motiviert das vorliegende Projekt. Wir werden einen auf der Extraktion menschlicher motorischer Fähigkeiten basierenden Ansatz untersuchen, um eine robuste, geschickte Greif- und In-Hand-Manipulation an einem robotischen Arm/Hand-System zu erreichen. • Ein neuartiges Rahmenwerk von erweiterten dynamischen Bewegungsprimitiven (DMPs), das Wahrnehmungsinformationen für die Extraktion und Verallgemeinerung menschlicher Fähigkeiten einbettet. • Rekonstruktion und Verfolgung eines unbekannten Objekts durch Ausnutzung interaktiver Manipulation und multimodales Feedback. • Mehrfache Sensorfusion basierend auf adaptiver Greif- und Manipulationssteuerung, verbessert durch die Extraktion menschlicher motorischer Fähigkeiten. Wir haben die Manipulationsfähigkeiten des Menschen durch externe Erfassungsmodalitäten (Vision und Kraft/Drehmoment) im Kontext des Lernens durch Demonstration (LfD) mit modernsten maschinellen Lernansätzen dargestellt. Diese Demonstrationen umfassten komplexe Szenarien der Mensch-Roboter-Interaktion (HRI) von physischer HRI bis hin zur Schulung des Roboters für komplexe Manipulationsaufgaben. Solche Darstellungen dienten als flexible Komponenten und wurden in den folgenden robotischen Manipulationsaufgaben verwendet, wie sie auch im Projekt demonstriert wurden. Um das Problem der Sichtbehinderung zu bewältigen, schlugen wir einen multi-kamera-basierten Ansatz zur Datenfusion vor, um die Szene hinter dem verdeckten Objekt zu "beobachten", und kümmerten uns auch um das Verfolgen der Objektposition mittels eines taktilbasierten Filteransatzes. Wir bauten auf unserer früheren Arbeit im Bereich taktiles Servieren auf und erweiterten sie auf die Koordination von Roboterarm und -hand, um verschiedene Objekte zu greifen. Darüber hinaus trugen wir durch maschinelles Lernen und adaptive Kraftregelung zur Teleoperation einer mehrfingerigen Roboterhand für komplexe Manipulationen bei. Das gesamte Projekt hat den Stand der Technik in Bezug auf die robotische Geschicklichkeit durch die Ausnutzung von multimodalem Feedback, Lernfähigkeiten und adaptiver Steuerung vorangetrieben.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung