Detailseite
Implizite mobile Mensch-Roboter-Kommunikation für die räumliche Handlungskoordination mit aktionsspezifischer semantischer Umgebungsmodellierung
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Arbeitswissenschaft, Ergonomie, Mensch-Maschine-Systeme
Arbeitswissenschaft, Ergonomie, Mensch-Maschine-Systeme
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 502483052
Der Einsatz von Robotern in der Industrie-, Arbeits- und Alltagswelt wird immer weiter flexibilisiert. Aktuelle Methoden zum maschinellen Lernen und zur adaptiven Bewegungsplanung führen zu einem wesentlich robusteren Verhalten und einer höheren Autonomie des Roboters. Dennoch finden bei kollaborativen Mensch-Roboter-Handlungen immer wieder Interaktionsabbrüche statt, in denen der Mensch das Bewegungsverhalten des Roboters nicht nachvollziehen kann. Eine häufige Ursache liegt darin, dass der Mensch ein falsches oder eingeschränktes Bild davon hat, was der Roboter gerade wahrnimmt und was dessen interner Zustand ist. Dies könnte vermieden werden, wenn der Roboter die mentalen Zustände und die Perspektive des Interaktionspartners in seiner eigenen Handlungsgenerierung nutzen könnte, um ein gemeinsames Verständnis der Handlung aktiv zu erzeugen. Eine Schlüsselkompetenz für eine derartige Zusammenarbeit von Menschen und Robotern ist die Fähigkeit zur Kommunikation und gegenseitigen Koordination über implizite Signale der Körpersprache und -bewegung. Das Projekt untersucht die implizite Mensch-Roboter-Kommunikation in kollaborativen Handlungen am Beispiel des gemeinsamen Aufbaus eines Regals. In experimentellen Studien werden gezielt Situationen erzeugt und aufgenommen, in denen die Interaktion und Perzeption zwischen dem Menschen und dem Roboter gestört ist. Es werden zum einen neue Perzeptionsmethoden erforscht, die interaktionsrelevante Merkmale anhand von Kopf-, Körperposen und Mimik robust bei Verdeckungen erkennen. Diese werden im Kontext der Handlung und der Umgebung interpretiert, so dass implizite Kommunikationssignale (z.B. Zuwenden, Abwenden, Einhalten, Andeuten, etc.) und interne Zustände (z.B. Zustimmung, Ablehnung, Interaktionsbereitschaft, etc.) abgeleitet werden können. Zum anderen werden Methoden erforscht, in denen der Roboter die Perspektive und den Zustand des Gegenübers in seiner eigenen Handlungsplanung berücksichtigt und dabei aktiv Nutzerreaktionen einfordert. Dies führt zu einer räumlichen Koordination der Interaktionspartner beim Aufbau des Regals, die die gegenseitige Wahrnehmung und das Handlungsziel berücksichtigt. Über einen aktiven Einsatz der Körperpose, relativen Ausrichtung und Bewegung des Roboters können Konfliktsituationen bereits im Vorhinein gelöst werden, ohne dass eine explizite Instruktion an den Roboter notwendig ist.
DFG-Verfahren
Sachbeihilfen