Schmachtl Stereo-Kamera an Cobot

Deep Learning wird immer öfter in Kombination mit demRoboter verwendet. (Bild: Schmachtl)

Wer automatisieren will, macht seine Maschinen zu autonom agierenden Playern seines produktiven Outputs. Automatisierte Prozesslandschaften arbeiten nicht nur mit hochpräziser Sensorik, sondern auch mit modernster Kameratechnik, die sich vor allem auf RGB- und 3D-Kameras stützen.
Neben Laserscannern, Radar- und Ultraschalltechnik sind die Kamerasysteme in robotergesteuerten Maschinen das elementare Sinnesorgan der Prozesskette. Wer die Synergieeffekte von Sensoren und visuellen Daten zu nutzen weiß, integriert seine Anwendung erfolgreich in den ökonomischen Wettbewerb des Industrie-4.0-Marktes. Voraussetzung für die Datengenerierung aus Kamera- und Sensorsystemen ist ein Edge Device, das die entsprechende Rechenleistung für die Schnittstellen sowie die Option für die Anbindung weiterer Devices besitzt. Um nun mobile oder statische Roboter in die Prozesskette der Industrieproduktion einzubinden, müssen CAN-Schnittstellen zur Verfügung stehen.
Bei den neuesten Bildbearbeitungsprogrammen für die Robotertechnik müssen die Anwender der visuellen Datenverarbeitung zunächst mehrere Komponenten berücksichtigen. In der Industrie sollen die Kamerasysteme von Robotern bestehende und neue Prozessabläufe umsetzen beziehungsweise lernen. Bewegungsabläufe des Menschen können dank des maschinellen Lernens durch Gesten- und Motorik-Erkennung vom Roboter leicht erlernt werden. Komplexer wird es bei Bewegungsprozessen, die keine rein repetitiven Arbeiten ausführen.

Robotik 1 - Kapitel 9 - Bildverarbeitung in der Robotik - Vorlesung am KIT

Cobot Arm mit Sick Bildverarbeitung
Hochmoderne Sensor- und Bildverarbeitungstechnik machen Cobots und Industrieroboter zu einem starken Glied in der Prozesskette. (Bild: Sick)

„Die Bandbreite der Bildverarbeitungssysteme für Industrieroboter ist groß und reicht vom simplen 2D-System bis zum komplexen Multikamerasystem“, sagt Kai Fischer, Application Engineer Robotics and Vision Systems bei Sick. Entscheidend für die Auswahl ist die Anforderung der Applikation. „Das können einfache Positionsermittlungen sein, um den Roboter an die korrekte Griffposition zu führen, aber auch hochkomplexe Qualitätsprüfungen mit mehreren Kameras und Sensoren.“ Stefan Wimmesberger leitet beim österreichischen Dienstleistungs- und Zulieferunternehmen Schmachtl den Bereich ‚Bildverarbeitung und Cobots‘. Er sagt: „Bei einfachen Pick-and-Place-Aufgaben reicht eine preiswerte 2D-Smartkamera mit integriertem Licht aus. Dabei kann die Kamera entweder am Roboter oder stationär befestigt sein. Oftmals verwendet man auch 3D-Technik in Form von Lasertriangulation oder Lichtschnittverfahren, um eine sogenannte 3D-Punktwolke zu generieren.“ Der Unterschied zwischen den beiden Systemen liege darin, „dass bei der Lasertriangulation nur eine Linie aufgezeichnet wird“. Um die Wolke zu bilden, müsse sich „entweder der Sensor oder das Bauteil bewegen“. So ist es in Kombination mit der Roboterbewegung möglich, das Spaltmaß an Autotüren zu messen oder auf einem Förderband befindliche Objekte zu bestimmen und zu picken. „Beim Lichtschnittverfahren werden hingegen mehrere Lichtlinien hintereinander in verschiedenen Stärken auf das Bauteil projiziert. Die Software ist in der Lage, die durch die Objekte verzerrten Linien richtig zu interpretieren, dadurch kann die 3D-Punktwolke im Stand gebildet werden“, wie Wimmesberger ausführt.

Roboterarm mit Kamera
Per Bildverarbeitung gesteuerte Roboter (Machine Vision) und zugehörige Technologien sind für das IIOT gewinnbringende Faktoren. (Bild: Schmachtl)

Es geht im Industrie-4.0-Umfeld darum, wie schnell und exakt das Kamerasystem des Roboters die Objekte erfasst. „Für Betriebe kommt es bei der Auswahl auf eine einfache Bedienbarkeit und Integration in die Robotersteuerung sowie Skalierbarkeit an, um auf unterschiedliche Anforderungen reagieren zu können“, sagt Fischer. „Nach Möglichkeit sollte ein Vision-System zudem ohne externe Steuerung auskommen.“ So wollen die meisten Kunden keine externen Controller oder großen Verkabelungsaufwand mehr haben, wie der Experte von Kamerasystemen bei Sick weiter erklärt. „Das kann von einfachen Helligkeitsüberprüfungen bis zum Einsatz von komplexeren Themen wie Deep Learning reichen. Um eine prozesssichere Applikation zu realisieren, sollten verschiedene Methoden im Vorfeld geprüft werden.“

Auch hier entscheidet die Komplexität der Anwendung, ob eine Smartkamera oder Industriekamera mit 3D-Sensorik mit hoher Rechenleistung eingesetzt wird. „Zu den typischen Softwaretools zählen Kantenantastungen, Helligkeitsüberprüfungen, Mustererkennung, Vermessungen oder das Lesen von Schriftzeichen oder Codes. In Kombination mit einem Roboter ist zudem noch die Kalibrierung wichtig. Dabei wird zwischen Roboter und Kamera ein eigenes Koordinatensystem angelegt, womit der Roboter und die Kamera die gleiche Sprache sprechen“, so Wimmesberger. Bei diesen Anwendungen spielen Deep-Learning-Applikationen des Roboters eine zentrale Rolle. Beim Deep Learning lokalisiert die Bildverarbeitung Teile oder Merkmale, klassifiziert diese oder untersucht die Oberfläche nach Defekten. „Der große Vorteil an Deep Learning liegt darin, dass man ohne tiefe Kenntnisse der Bildverarbeitung sehr gute Ziele erreichen kann. Auch gegenüber der sogenannten klassischen Bildverarbeitung punktet die Methodik, da man oft eine Vielzahl an Stunden investieren muss, bis eine Applikation prozesssicher läuft. Beim Deep Learning geht das hingegen wesentlich schneller und ist manchmal auch die einzige Lösung“, so Wimmesberger weiter.
Kai Fischer erkennt einen klaren Trend bei der visuellen Datenverarbeitung von Robotern: Hier gehe es „eindeutig in Richtung Smart-System, wo alle Komponenten wie Optik, Beleuchtung und Controller integriert sind, die Kamera direkt mit dem Roboter kommuniziert, wie es beispielsweise der Sick-PLOC2D-Sensor ermöglicht“. So ein System sei deshalb nicht automatisch kompakt, aber es komme ohne weitere Hardware aus, die in der Zelle installiert werden muss und damit auch weniger störungsanfällig sei. „Grundsätzlich gilt: Je kompakter die Kamera ist, desto besser ‒ denn das wirkt sich positiv auf den Footprint, also den Umfang des Gesamtsystems aus“, wie Fischer betont.

Bleiben Sie informiert

Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!

Neben einem skalierbaren 2D- und 3D-Portfolio bieten die unterschiedlichen Hersteller Komponenten oder ganze Systeme, die je nach Anwendungsgrad konfiguriert werden können. Was Kamerasysteme von Robotern im IIOT-Kontext leisten müssen, ist jedoch klar definiert. Vorteile bei der visuellen Datenverarbeitung von Robotern haben diejenigen Systeme, die bereits auf künstliche Intelligenz, dem Machine Learning, basieren. „Im Falle von Universal Robot bieten wir für viele unserer Systeme die passende UR-Cap-Software an.“ Mit dieser Software können Cobot-Nutzer „Peripheriegeräte direkt über das Teach-Pendant der UR-Roboter steuern und diese einfach integrieren“, sagt Fischer.

Sie möchten gerne weiterlesen?