Verbales Instruieren von sensorbasierten Robotern (VerbBot)
Zusammenfassung der Projektergebnisse
Ein intuitives Robotersystem zu entwickeln, ist seit langem Gegenstand der Forschung. Ansätze basierend auf graphischen Oberflächen, Sprachsteuerung, Gestenerkennung oder einer Kombination dieser Ansätze wurden für verschiedene Anwendungsfälle getestet. Eine rudimentäre Sprachsteuerung von mobilen Robotern ist mittlerweile sogar schon im Haushalt möglich. Neben dem häuslichen Gebrauch sollen Roboterarme jedoch in Zukunft auch in kleinen und mittleren Unternehmen eingesetzt werden und dort im besten Fall von Nichtexperten im Bereich der Robotik bedienbar sein. Ein Grund dafür, dass eine Sprachsteuerung von Roboterarmen noch nicht weit verbreitet ist, stellt, neben den hohen Kosten der Roboterarme, die Schwierigkeit der Abbildung von natürlichsprachlichen Instruktionen in für das Robotersystem verständliche Instruktionen dar. Gerade bei kraftbasierten Bewegungen ist eine Vereinfachung der Instruktionen notwendig, da man von den Nutzern nicht erwarten möchte, dass alle für die Bewegung notwendigen Parameter explizit spezifiziert werden. Um dem zu entgehen, wurden in diesem Projekt eine Reihe an neuen Konzepten eingeführt und untersucht, welche eine intuitive sprachbasierte Instruktion von kraftbasierten Roboterbewegungen erlaubt. In diesem Projekt wurde zunächst eine Vorarbeit erweitert, welche eine Abbildung von Instruktionen auf Roboterbewegung basierend auf physikalischen Gesetzen und Eigenschaften erlaubt, indem Kombinationen dieser Bewegungen ermöglicht werden. Um den Nutzern die Last abzunehmen, numerische Kraftwerte angeben zu müssen, wurde ein Modell vorgestellt, welches eine Abbildung von unscharfen Parametern auf scharfe Kraftparameter erlaubt. Die Notwendigkeit eines solchen Modells wurde dabei mithilfe einer speziellen Nutzerstudie (Wizard-of-Botz) dargelegt. Da Menschen dazu neigen, offensichtliche Parameter in Instruktionen wegzulassen, wird ein Ansatz vorgestellt, welcher eine Validierung solcher Instruktionen mittels sogenannter Affordanzen ermöglicht. Da selbst syntaktisch und semantisch korrekte Instruktionen zu fehlerhaften Ausführungen führen können, weil sich beispielsweise der Nutzer nicht vollkommen über die Fähigkeiten des Roboterarms im Klaren ist, wird zudem ein Ansatz vorgestellt, welcher die Bewegungen zunächst in einer physikbasierten Simulation ausführt und auf eventuelle Abweichungen überprüft. Das Gesamtsystem wurde zuletzt mithilfe eines Prototyps evaluiert, welcher die oben genannten Ansätze umsetzt. Die erzielten wissenschaftlichen Ergebnisse mündeten in fünf begutachteten Publikationen auf einschlägigen, internationalen Konferenzen sowie in einer Dissertation. Außerdem wurde in einem Fachmagazin über dieses Projekt berichtet.
Projektbezogene Publikationen (Auswahl)
-
Grounding Verbs for Tool-Dependent, Sensor-Based Robot Tasks. 2018 27th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 378-383. IEEE.
Wolfel, Kim & Henrich, Dominik
-
Grounding of Uncertain Force Parameters in Spoken Robot Commands. Advances in Intelligent Systems and Computing, 194-201. Springer International Publishing.
Wölfel, Kim & Henrich, Dominik
-
„Gesagt, (gefragt,) getan“, Zeitschrift handling, Nr. 6, 2019
Wölfel K. & Henrich D.
-
Affordance Based Disambiguation and Validation in Human-Robot Dialogue. Annals of Scientific Society for Assembly, Handling and Industrial Robotics, 307–317.
Wölfel, Kim & Henrich, Dominik
-
Simulation-Based Validation of Robot Commands for Force-Based Robot Motions. Lecture Notes in Computer Science, 334-340. Springer International Publishing.
Wölfel, Kim & Henrich, Dominik
-
Wizard of Botz: A Novel Approach to the Wizard of Oz Experiment. Mechanisms and Machine Science, 557-564. Springer International Publishing.
Wölfel, Kim & Henrich, Dominik
