Detailseite
Projekt Druckansicht

Sicherheitsstrategien für die Mensch/Roboter-Kooperation und -Koexistenz (SIMERO-2)

Fachliche Zuordnung Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Förderung Förderung von 2005 bis 2018
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 5451027
 
Erstellungsjahr 2018

Zusammenfassung der Projektergebnisse

Menschen sind geschickt bei komplizierten manuellen Tätigkeiten und können sehr flexibel auf unbekannte Situationen reagieren. Industrieroboter sind sehr stark, schnell, ausdauernd und positionsgenau. Durch die enge Zusammenarbeit von Mensch und Roboter können die verschiedenen Stärken kombiniert werden. Das Ziel des SIMERO-Projekts ist die Analyse, Entwicklung und Auswertung von Konzepten zur sicheren Koexistenz und Kooperation von Mensch und Roboter. Bei der Koexistenz befinden sich Mensch und Roboter in einem gemeinsamen Arbeitsraum und führen unabhängige Aufgaben durch. Bei der Kooperation arbeiten sie zusammen an der Erfüllung einer gemeinsamen Aufgabe. Zur Lösung der Aufgabe wird die aktuelle Situation in der Roboterarbeitszelle durch mehrere hochauflösende Kameras aus unterschiedlichen Richtungen erfasst und daraus mitlaufend eine dreidimensionale Rekonstruktion der Szene erstellt. Diese Rekonstruktion wird durch Zusatzwissen bereinigt von Artefakten, welche das Kamerarauschen mit sich bringt. Basierend auf mehreren Full-HD-Farbkameras kann eine Szene mit einer Auflösung von einer Milliarde Volumenelementen und mit Videobildrate (30 Hz) mitlaufend dargestellt werden. Basierend auf dieser Szenenerfassung ist es dem Roboter nun möglich, parallel dazu seine zukünftigen Bewegungen zu planen und auszuführen. Diese Bewegungen minimieren ein allgemeines Risiko. Diese Optimierung kann dazu genutzt werden, um beispielsweise kollisionsfreie Roboterbewegungen zu planen, seine Geschwindigkeit in Hindernisnähe zu reduzieren oder um kürzeste bzw. schnellste Wege für den Roboter zu berechnen. Ist der Roboter mit zusätzlichen Sensoren für externe Kräfte ausgestattet (z. B. ein Kraft/Moment-Sensor in der Handwurzel), dann kann er dem Menschen erlauben ihn zur Führung „an die Hand“ zu nehmen. Damit sind die vier prinzipiellen Modi der Mensch/Roboter-Kooperation realisierbar. Diese Kooperationsmodi unterscheiden sich darin, ob der Roboter sich frei nach seinem Programm oder vom Menschen geführt bewegt und ob sich der Roboter in großem Hindernisabstand befindet oder in Kontakt mit einem Szenenobjekt ist. Die Anwendungen der erzielten Ergebnisse liegen beispielsweise in den Bereichen der Automatisierungs-, Sicherheits- und Überwachungstechnik sowie in der Servicerobotik. Über die Forschungsergebnisse wurde auch mehrfach in den Medien berichtet.

Projektbezogene Publikationen (Auswahl)

  • „Human-robot cooperation: Safe pick-and-place operations“, 14th IEEE International Workshop on Robot and Human Interactive Communication (ROMAN’05), Nashville, August 13-15 2005
    Gecks T., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1109/ROMAN.2005.1513837)
  • “Velocity control for safe robot guidance based on fused vision and force/torque data”, IEEE Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI'06), Heidelberg, September 3-6, 2006
    Kuhn St., Gecks Th., and Henrich D.
    (Siehe online unter https://dx.doi.org/10.1109/MFI.2006.265623)
  • „Modelling intuitive behavior for safe human/robot coexistence and cooperation“, IEEE International Conference on Robotics and Automation (ICRA’06), Orlando, May 15-19, 2006
    Henrich D., Kuhn S.
    (Siehe online unter https://dx.doi.org/10.1109/ROBOT.2006.1642304)
  • „Fast Vision-Based Minimum Distance Determination Between Known and Unkown Objects“, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’07), San Diego, Oct. 29 – Nov. 2, 2007
    Kuhn S., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1109/IROS.2007.4399208)
  • „Path Planning and Execution in Fast-Changing Environments with Known and Unknown Obstacles“, IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS'07), San Diego, Oct. 29 – Nov. 2, 2007
    Gecks Th., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1109/IROS.2007.4399187)
  • „Multi-Camera Collision Between Known and Unknown Objects“, Second ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC’08), Stanford University, California, September 7-11, 2008.
    Henrich D., Gecks Th.
    (Siehe online unter https://doi.org/10.1109/ICDSC.2008.4635717)
  • “Multi-View Reconstruction of Unknown Objects within a Known Environment”, 5th International Symposium on Visual Computing (ISVC'09), Las Vegas, Nov 30. – Dec 2. 2009
    Kuhn St., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1007/978-3-642-10331-5_73)
  • “Surveillance of Robots using Multiple Colour or Depth Cameras with Distributed Processing”, Third ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC'09), Como/Italy, August 30. - September 2nd, 2009
    Fischer M., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1109/ICDSC.2009.5289381)
  • „Optimal camera placement to measure distances regarding static and dynamic obstacles”, International Journal of Sensor Networks (IJSNET), vol 12, no 1, 2012
    Hänel M., Kuhn M., Henrich D., Grüne L., Pannek J.
    (Siehe online unter https://dx.doi.org/10.1504/IJSNET.2012.047713)
  • „Efficient and Precise Multi-Camera Reconstruction“, Eighth ACM/IEEE International Conference on Distributed Smart Cameras (ICDSC’14), November 4-7, 2014, Venetia.
    Werner T., Henrich D.
    (Siehe online unter https://doi.org/10.1145/2659021.2659066)
  • “Efficient graphics processing unit– based voxel carving for surveillance”, Journal of Electronic Imaging, Volume 25, Issue 4, Juli, 2016
    Ober-Gecks A., Zwicker M., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1117/1.JEI.25.4.041011)
  • „Neural Networks for Real-Time, Probabilistic Obstacle Detection“, 26th International Conference on Robotics in Alpe- Adria-Danube Region (RAAD), June 21-23, 2017.
    Werner T., Bloeß J., Henrich D.
    (Siehe online unter https://dx.doi.org/10.1007/978-3-319-61276-8_34)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung