Detailseite
Projekt Druckansicht

Transfer Learning zur Aktivitätserkennung in der Intra-Logistik

Fachliche Zuordnung Arbeitswissenschaft, Ergonomie, Mensch-Maschine-Systeme
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Produktionssystematik, Betriebswissenschaften, Qualitätsmanagement und Fabrikplanung
Verkehrs- und Transportsysteme, Intelligenter und automatisierter Verkehr
Förderung Förderung von 2016 bis 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 316862460
 
Auch im Zeitalter der Industrie 4.0 werden manuelle Aktivitäten in der Logistik vorherrschend sein. Informationen über die Häufigkeit und Dauer manueller Tätigkeiten sind wesentlich, um die Effizienz der Intralogistik und somit der gesamten Supply Chain zu verbessern. Da die manuelle Bewertung äußerst aufwendig ist, rücken IT-basierte Ansätze der menschlichen Aktivitätserkennung (HAR) in den Fokus. HAR ist eine Klassifikationsaufgabe zur Wiedererkennung menschlicher Tätigkeiten in Zeitreihen. Es findet bereits in Smart Homes, der Rehabilitation sowie im Gesundheitssektor Anwendung. Insbesondere auf nicht invasiven, hochzuverlässigen, am Körper getragenen Sensoren basierende HAR ist im Fokus der Forschung, um den Einsatz in anspruchsvollen Umgebungen zu ermöglichen. Das Trainieren eines Klassifikators benötigt große Datenmengen, da menschliche Bewegungen äußerst vielfältig sind, insbesondere in den vielgestaltigen Szenarien der Logistik.Das Ziel dieses Projekts ist die Entwicklung einer Methode zur Vermeidung des immensensen Aufnahme- und Annotationsaufwands qualitativ hochwertiger Daten von körpergetragenen Sensoren im Logistikkontext. Verschiedene Logistikszenarien werden in einem Referenzfeld nachgestellt, welches mit einem hochgenauen, optischen Motion Capturing (oMoCap) ausgestattet ist. In dieser Laborumgebung werden oMoCap- und Körpersensor-Zeitreihen synchron aufgenommen. Durch die Kombination der Aufnahmen aller Szenarien entsteht ein oMoCap-Referenzdatensatz. Methoden des Transfer- und Zero-Shot-Learning ermöglichen dessen Szenarien-übergreifende Verwendbarkeit. Methoden des maschinellen Lernens, insb. des Deep Learnings, werden zur Verarbeitung der Zeitreihen und zum Trainieren eines Klassifikators auf Basis des oMoCap-Referenzdatensatzes in Betracht gezogen. Der Klassifikator ermöglicht eine automatische Annotation der synchronisierten Körpersensordatensätze. Zudem werden Ansätze zur zusätzlichen Generierung synthetischer Daten auf Basis von oMoCap-Rohdaten betrachtet. Die Performance des Klassifikators, der auf Basis der automatisch annotierten sowie der synthetischen Körpersensordatensätze trainiert wurde, ist durch einen Vergleich mit manuell annotierten Datensätzen aus einem realen System bewertbar.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung