Detailseite
Lernen der Kontexte im Programmieren durch Vormachen von Manipulationsaufgaben
Antragsteller
Professor Dr.-Ing. Rüdiger Dillmann
Fachliche Zuordnung
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung von 2014 bis 2018
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 255319423
Serviceroboter können Manipulationsaufgaben, die aus mehreren, unterscheidbaren Teilaktionen bestehen, durch Beobachtung vom Menschen lernen. Dies wird als Programmieren durch Vormachen (PdV) bezeichnet. Die logische Verknüpfungsstruktur von Aufgaben, die z.B. durch Verzweigungen oder Alternativen charakterisiert sind, wird mittels symbolischer PdV-Ansätze gelernt. Atomare Aktionen, die zur Bewegungserzeugung eingesetzt werden, können durch subsymbolische PdV-Methoden erzeugt werden. Es wird jedoch kein Wissen gelernt, in welchen Kontexten die atomare Aktion eingesetzt werden kann. Die autonome Auswahl einer Aktion durch den Roboter erfordert eine operationale Beschreibung des Kontexts. Die Frage ist also, was sind relevante, messbare Objekteigenschaften und wie können diese zuverlässig durch den Roboter bestimmt werden?Reine Objektlokalisierung ist nicht ausreichend, da die Vielzahl an Objekten in der Welt zu Mehrdeutigkeiten und Fehlerkennungen führt. Die Auswahl geeigneter Objektklassifikatoren, die Beschränkung der Menge zu detektierender Objekte sowie der Regionen in der Umwelt, in denen nach bestimmten Objekten zu suchen ist, sind Grundvoraussetzungen zur eindeutigen Objekterkennung. Zusätzlich müssen Messaktionen bestimmt werden, um visuell nicht wahrnehmbare Objekteigenschaften zu bestimmen. Dieses Wissen wird in der Regel manuell durch den Programmierer definiert.Ziel dieses Vorhabens ist die Erweiterung des PdV-Ansatzes auf das Lernen des Kontexts einer Manipulationsaufgabe aus der Beobachtung des Menschen, wozu Methoden der Szenenanalyse in den PdV-Ansatz integriert und erweitert werden. Die Auflösung der Mehrdeutigkeiten und Fehlerkennungen der visuellen Perzeption unter Verwendung des gelernten Kontexts stellt ein weiteres Ziel in diesem Projekt dar. Dazu werden Methoden der interaktiven Objekterkennung in den PdV-Ansatz integriert und erweitert, wodurch Aktionen zur Messung nicht-visueller Objekteigenschaften, z.B. des Gewichts, effizient programmiert und zur Auflösung von Mehrdeutigkeiten und Fehlerkennungen eingesetzt werden können. Der Kontext einer Manipulationsaufgabe ermöglicht auf die Rolle bisher unbekannter Objekte, z.B. anhand der relativen Lage zu bekannten Objekten, zu schließen. Die Ausführung gelernter Manipulationen mit einem zum Lernzeitpunkt unbekannten Objekt ist nicht ohne generalisierende Prozesse möglich. Daher wird als weiteres Ziel die Steigerung der Generalisierungsfähigkeit des Roboters durch interaktive Adaption gelernter Einschränkungen und Ziele einer Manipulationsaufgabe an ein neues Objekt angestrebt. Dazu sollen Methoden aus dem Bereich Morphing eingesetzt werden, um Einschränkungen und Ziele auf Basis der Objektgeometrie zu transformieren, automatisch mit Hilfe von Simulationsverfahren zu validieren und interaktiv zu korrigieren.Die Ergebnisse werden mit konkreten PdV-Sensoren sowie auf anthropomorphen Robotersystemen implementiert und anhand Praxis-relevanter Beispiele evaluiert
DFG-Verfahren
Sachbeihilfen