Unscharfe Programmierung sensorgestützter Handhabungsabläufe
Zusammenfassung der Projektergebnisse
Unscharfe Roboterprogrammierung (UP) wurden Lösungsansätze zur intuitiven Einrichtung und Programmierung von sensorgeführten Robotersystemen sowie zur betriebssicheren Durchführung von Handhabungsaufgaben bei ungenau positionierten Werkstücken erarbeitet. Dazu erfolgte eine umfassende Analyse des bisherigen Erkenntnisstandes im Bereich der Roboterprogrammierung, der Bildverarbeitung sowie der 3D-Sensortechnik. Als Ergebnis dieser Analyse konnte aufgezeigt werden, dass derzeit am Markt verfügbare Programmierverfahren den Bediener nur unzureichend bei der Sensorintegration und der Vorgabe sensorgeführter Handhabungsabläufe unterstützen. Es zeigte sich jedoch auch, dass neben der Entwicklung eines bedienerfreundlichen Roboterprogrammieransatzes auch die Realisierung eines neuen, programmierbaren Bildverarbeitungsansatzes sowie der Entwurf eines 3D-Sensorsystems, welches auch Werkstücke mit metallisch glänzenden Oberflächen zuverlässig erfassen kann, unverzichtbar sind. In diesem Zusammenhang wurden im Wesentlichen die folgenden drei Bereiche identifiziert, in denen weiterhin Forschungsbedarf herrscht: • Zuverlässige, dreidimensionale Erfassung von Objekten mit metallisch, glänzenden Oberflächen, • Schnelle, konfigurierbare Objekt- und Lageerkennung zur sensorunterstützten Werkstückhandhabung und • Intuitive Programmierung von sensorgeführten Handhabungsaufgaben sowie die einfache Integration von optischen Werkstückerkennungssensoren. Auf dieser Basis wurden im Rahmen des Projekts Lösungsansätze realisiert, die eine Möglichkeit bieten, sowohl den Roboter und als auch unterschiedliche Arten von Sensoren gemeinsam über ein einziges System zu programmieren und einzurichten, ohne dass große Aufwände oder umfangreiche Vorkenntnisse erforderlich sind. Die Vorgabe der sensorgeführten Roboterbahn kann beispielsweise mit Hilfe einer bedienerfreundlichen Teach-In- Methodik erfolgen. Die sensorgeführten Handhabungsaufgaben werden auf einfache Weise über eine grafische Benutzeroberfläche in einer intuitiven, aufgabenorientierten Form beschrieben und mittels Ablaufdiagrammen visualisiert. Anschließend werden die Ablaufbeschreibungen mit Hilfe des Programmiersystems in lauffähige Roboterprogramme übersetzt und auf der Robotersteuerung gestartet. Die Programme verfügen je nach Roboterkonfiguration neben den reinen Bewegungsinformationen auch über die notwendigen Funktionen, um die Roboter-Sensor-Kommunikation zu organisieren, die Sensordaten richtig zu interpretieren und den Greifvorgang an die tatsächliche Bauteillage anzupassen. Zur effizienten und effektiven Werkstückerkennung wurde ein berührungslos wirkender, optischer 3D-Sensor realisiert, der seine Umgebung mit Hilfe des in der ersten Antragsphase entwickelten Konzepts der Doppelkreuzprojektion erfasst. Es konnte gezeigt werden, dass zur Erfassung aller sechs Freiheitsgrade eines beliebig im Raum positionierten und orientierten Objekts keine vollständige Erfassung der Bauteiltopologie erforderlich ist. Um ein Bauteil zuverlässig zu erkennen und um das aufkommende Datenvolumen sinnvoll zu reduzieren, sind bereits wenige Konturschnitte ausreichend. Der Sensor zeichnet sich ferner durch seine hohe Robustheit und Vielseitigkeit aus. Es wurde ein aktiver Filteralgorithmus entwickelt, der den tatsächlichen, diffus reflektierten Lichtschnittlinienverlauf erkennt. Spiegelungen und Glanzeffekte werden dabei selbstständig herausgerechnet. Zudem passt sich der Algorithmus automatisch variierenden Oberflächeneigenschaften an und lässt sich bei verschiedenen Beleuchtungssituationen flexibel einsetzen. Die Auswertung der Objekt- und Lageinformationen des zu greifenden Werkstücks erfolgt durch iterative Einpassung eines dreidimensionalen CAD-Modells in die erfassten, räumlichen Konturdaten des Bauteils. Die Leistungsfähigkeit des bereits in der ersten Antragsphase entwickelten Rumpfalgorithmus konnte deutlich gesteigert werden. Es ist nun möglich, CAD-Modelle (im STEP-Format) mit planen, zylindrischen, sphärischen, B-Spline und NURBS-Flächen für die Identifizierung und Lokalisierung von Werkstücken zu verwenden. Das entwickelte Gesamtkonzept ermöglicht eine vereinfachte Einrichtung und Programmierung von sensorgeführten Robotern. Dadurch lassen sich betriebssichere Roboterprogramme mit einem stark reduzierten Aufwand und ohne umfangreiche Kenntnisse auf dem Gebiet der Sensorintegration generieren. Da das Gesamtkonzept den Randbedingungen für eine industrielle Anwendung in kleinen und mittelständischen Unternehmen gerecht wird, kann auch das dortige Personal den sensorgeführten Roboter einfach bedienen. Die betriebsichere Handhabung von Werkstücken wird durch eine schnelle, konfigurierbare Objekt- und Lageerkennung sichergestellt, indem Greifprozesse der tatsächlichen, räumlichen Werkstücklage angepasst werden. Dadurch steigt die Zuverlässigkeit und Einsatzflexibilität des Robotersystems bei der Handhabung von ungenau positionierten Werkstücken. Das neue Konzept der Werkstückerkennung lässt sich sowohl für komplexe Bauteile als auch für die Erkennung von einfach gehaltenen, relativ maßhaltigen Formen, wie z.B. Schmiede- und Gussrohlingen oder Roh- und Halbzeugen, verwenden. Obwohl die einzelnen Teilsysteme Programmiersystem, 3D-Sensor und Objekt- und Lageerkennungsalgorithmus vor dem Hintergrund eines durchgängigen Nutzungsansatzes entwickelt wurden, lassen sie sich auch getrennt voneinander einsetzen. Der Betrachtungsraum der innerhalb dieses Projekts durchgeführten Entwicklungsarbeiten umfasst allerdings nur den Roboter und das Werkstück. Im Sinne einer ganzheitlichen Programmierung ist auch die Einbeziehung der näheren Umgebung von Roboter und Greifer erforderlich. Dadurch würde die Basis geschaffen, um eine Kollisionsfreiheit der sensorisch unterstützten Handhabungsprogramme gewährleisten zu können. Neben einer solchen Erweiterung des Betrachtungsraums lassen sich auch noch Erweiterungen am Algorithmus durchführen, wie z.B. Verbesserungen an der Segmentierung der Sensordaten. Ferner könnten die hier vorgestellten Integrationsansätze umfassend auf alle genannten Sensortypen ausgeweitet werden. Alle potenziellen Anschlussarbeiten sollten die Vision verfolgen, Roboter auch bei kleinsten Stückzahlen wirtschaftlich einsetzen zu können. Neben der Integration von Sensorik und der Gewährleistung der Kollisionsfreiheit ist es dafür noch erforderlich, dass der Roboter seine Arbeitsaufgabe vollständig autonom definieren kann. Dazu müsste er sich allerdings selber mit eventuell angeschlossenen Maschinen oder Fließbändern synchronisieren und auch die Vorhaltepositionen zur Erfassung der tatsächlichen Bauteillagen selbständig ermitteln können.
Projektbezogene Publikationen (Auswahl)
-
Weck, M., Almeida, C: "Unscharfe Roboter-Programmierung - Roboter programmieren auf der Basis von ungenauen Angaben". In: wt - Werkstattstechnik Online. 93. Jg., Nr. 9, 2003. S. 627-631
-
Weck, M.; Almeida, C.: "Unscharfe Roboterprogrammierung - Programmierung von sensorgeführten Handhabungsaufgaben". In: Adam, W. et. al. (Hrsg.): Neue Sensoren und Aktoren für produktionstechnische Anwendungen; Fortschritt-Berichte VDI, Fertigungstechnik (Reihe 2). Düsseldorf: VDI, 2003. S. 1-16
-
Brecher, C. et al.: "Portables Robotersystem - Wirtschaftliche Durchführung wechselnder Handhabungsaufgaben". In: VDI-Z Integrierte Produktion. 146. Jg., Nr. 7/8, 2004. S. 27-30
-
Weck, M.; Almeida, C.: "Fuzzy Programming - Programming Robots Using Uncertain Data". In: Production Engineering ¿ Annals of the German Academic Society for Production Engineering (WGP). Bd. 11, Nr. 2, 2004. S. 139-142