Roboter erkennen Menschen dank dreidimensionalem Sehen
15.01.2019 -
Mensch und Maschine arbeiten Hand in Hand – MRK macht`s möglich. Die Voraussetzung dafür schaffen entsprechende Sensoren und vor allem das dreidimensionale Erkennen der Umgebung durch die Steuerung des Roboters.
Roboter übernehmen in der Fertigung oder beim Handling in der Industrie bereits seit Jahrzehnten zahlreiche Tätigkeiten und entlasten so die Mitarbeiter, vor allem wenn schwere Lasten bewegt oder wiederholt monotone Tätigkeiten ausgeführt werden müssen. Denn Roboter ermüden nicht, arbeiten rund um die Uhr und können große Kräfte aufbringen. Um Gefährdungen von Personen auszuschließen, haben Roboter in der Vergangenheit stets in separaten Bereichen gearbeitet – in der Regel sorgt ein Schutzzaun für die notwendige Trennung. Doch haben sich inzwischen auch Konzepte der Mensch-Roboter-Kooperation etabliert, bei denen eine direkte Interaktion möglich ist. Eine der entscheidenden Voraussetzungen dafür, ist eine Sensorik, die den Roboter in die Lage versetzt, Personen zu erkennen.
3D-Sensoren nach dem ToF-Verfahren
Die Bildverarbeitung nimmt innerhalb der Sensorik eine Sonderrolle ein, denn im Gegensatz zu anderen Sensoren ist die hier erzeugte Datenmenge sehr hoch. Diese Daten müssen umfassend verarbeitet werden, um daraus für die Automatisierung verwertbare Informationen zu erzeugen. Und wenn es um dreidimensionale Bildverarbeitung geht, wird die Aufgabenstellung oft noch komplexer.
3D-Bildsensoren sind – wie herkömmliche Bildsensoren auch – in Pixel aufgeteilt. Statt einen Farb- oder Helligkeitswert zu bestimmen, misst ein 3D-Bildsensor für jeden Punkt einen Abstandswert zwischen Sensor und Objekt. Die 3D-Bildsensoren vom Typ O3D von IFM basieren auf dem so genannten Time-of-Flight-Verfahren. Dabei beleuchtet eine Lichtquelle das Objekt mit unsichtbarem Infrarotlicht, dessen Reflektion im Sensor registriert wird. Die Lichtquelle wird so moduliert, so dass die Phasenverschiebung zwischen gesendetem und empfangenem Signal bestimmt werden kann. Aus dieser Phasenverschiebung lässt sich eine Lichtlaufzeit bestimmen, aus der sich die Entfernung ergibt. Der 3D-Bildsensor arbeitet mit einer integrierten aktiven Fremdlichtunterdrückung und bietet dadurch selbst bei schwierigen Lichtverhältnissen eine hohe Zuverlässigkeit.
Einfache 3D-Bildverarbeitung durch vorhanden Algorithmen
In der Vergangenheit sind viele potenzielle Anwender vor dem Einsatz von Bildverarbeitungssystemen zurückgeschreckt, da die Verarbeitung der Bilddaten vergleichsweise komplex ist. Aus den Rohdaten, die von der Kamera geliefert werden, muss ein Bild erzeugt werden, in dem dann beispielsweise Muster erkannt werden müssen. Bei der 3D-Bildverarbeitung ist die Aufgabe noch schwieriger, da Gegenstände im dreidimensionalen Raum identifiziert werden müssen. Mit den 3D-Sensoren vom Typ O3D bietet IFM jetzt eine Lösung, die eine 3D-Bildverarbeitung fast so einfach macht, wie die Verwendung eines herkömmlichen Sensors. Möglich wird dies, weil für verschiedene Anwendungsfälle bereits fertige Algorithmen programmiert wurden, die der Anwender in Form von einfachen Apps verwenden kann. Um die App einzurichten, werden deswegen keine Kenntnisse der Bildverarbeitung benötigt.
Für den O3D sind jetzt zwei neue Apps hinzugekommen. Interessant ist dabei die App zum Depalettieren. Roboter, die im Handling eingesetzt werden, sind eine der Standard-Anwendungen. Schon lange im Einsatz sind Roboter, die Kisten oder Säcke auf Paletten aufstapeln, und so Menschen diese körperlich schwere Arbeit abnehmen. Der umgekehrte Vorgang des Depalettierens – also das Abladen einer Palette – ist für die Automatisierungstechnik eine ungleich komplexere Ausgabe. Der Roboter muss erkennen können, wie die einzelnen Gegenstände, beispielsweise Kisten, auf der Palette angeordnet sind. Dabei ist auch eine dreidimensionale Information notwendig, um zu erkennen welche Kisten sich in der obersten Lage befinden. Diese komplexe Aufgabe kann ein Anwender jetzt mit Hilfe der entsprechenden App sehr einfach mit dem O3D lösen.
Parametrieren statt Programmieren
Die Apps für den O3D sind so konzipiert, dass der Anwender lediglich eine Konfiguration vornehmen muss. Der optimale Messabstand liegt zwischen 0,3 m und 3,5 m – möglich sind bis zu 5 m Abstand. Bei der Installation ist eine freie Sicht von oben auf die Palette zu gewährleisten. Die Auflösung des 3D-Sensors ist so hoch, dass Gegenstände mit einer Kantenlänge von 5 cm noch sicher erkannt werden. Während der Parametrierung muss der Anwender lediglich die Größe der Kisten angeben. Der O3D erkennt anschließend alle Kisten einer Lage und liefert sowohl deren exakte Positionen als auch deren Orientierung. Mit Hilfe dieser Koordinaten kann ein Robotergreifer sicher entweder einzelne Kisten oder eine ganze Lage von der Palette entnehmen und zum Beispiel auf einem Transportband absetzen. Palettenzwischenlagen aus Wellpappe oder papierwerden ebenfalls erkannt und können separat entnommen werden. Das System ist im Vergleich zu anderen Lösungen, die auf einzelnen optischen Abstandssensoren oder Linien-Scannern beruhen, sehr fehlertolerant. Eine ungenaue Beladung der Palette, beispielsweise mit fehlenden oder verrutschten Kisten, sowie Fremdobjekte werden sicher erkannt. Zudem ist die Lösung sehr schnell, da die Messfrequenz so hoch ist, dass beim Depalettieren keine Pausen entstehen.
Einfache Installation und Integration
Bei der Entwicklung des O3D-Sensorn hat IFM besonderen Wert auf eine hohe Bedienerfreundlichkeit gelegt. Neben der einfachen Konfiguration der vorinstallierten Apps ist auch die Installation völlig unkompliziert. Auf einem mitgelieferten USB-Stick befinden sich die Apps, Beispielvideos zur Parametrierung der verschiedenen Anwendungen sowie ein Installation-Wizard, der beispielsweise einen im Netzwerk angeschlossenen 3D-Sensor automatisch erkennt. Ein manuelles Eintragen der IP-Adresse ist nicht notwendig. Die Installation und Inbetriebnahme ist dadurch fast so einfach wie bei einem modernen Teach-In-Sensor.
Neben der App zum Depalettieren ist auch eine neue App zum Erkennen von Gegenständen auf einem Förderband erhältlich. Unterschiedliche Objekte, beispielsweise Reifen, Eimer, Fässer, Kisten usw. werden identifiziert und können von einem Robotergreifer vom Förderband entnommen werden. Außerdem stehen noch Apps zur Vollständigkeitskontrolle von Verpackungen und zur Ermittlung von Volumen und Gurtmaß von Kisten zur Verfügung. Weitere Apps sind bereits in Vorbereitung.