Mehr Leistung in der Logistik mit 3D Vision-Sensoren
Programmierbare Snapshot-Sensoren für die Intralogistik
Viele Wege führen nach Rom. Dies gilt im übertragenen Sinn auch für das Portfolio der 3D-Umfeldsensoren von Sick. Die Produktfamilien Visionary-B, -S und -T erzeugen 3D-Snapshots mit jeweils unterschiedlichen Aufnahmetechnologien – per Stereovision (Visionary-B), per Stereovision mit zusätzlicher Strukturbeleuchtung (Visionary-S) sowie durch 3D-Lichtlaufzeitmessung (Visionary-T). Damit bietet jede dieser Technologien applikationsspezifische Vorteile. Installations- und bedientechnisch sind jedoch alle drei Sensorlösungen auf eine einfache Integration und schnelle Betriebsbereitschaft ausgelegt.
3D-Snapshot: mehr als nur ein Schnappschuss
3D-Snapshot bezeichnet dabei ein Bildaufnahme-Verfahren, bei dem der Kamerasensor in einem einzigen Moment ein komplettes Abbild des Sichtbereichs aufnimmt (2D) und zusätzlich als Tiefenwert die Entfernung zwischen dem Sensor und dem aufgenommenen Umfeld bestimmt (3D). Hinzu kommt, dass 3D-Snapshot-Sensoren sehr robust sind, da sie ohne bewegte mechanische Teile wie Umlenksiegel auskommen. Hieraus resultiert eine hohe Ausfallsicherheit bei zugleich geringem Wartungsaufwand.
Sinnesorgane für intralogistische Prozesse
Alle Visionary-Sensoren berechnen die Tiefendaten direkt auf dem Gerät. Zudem verfügen sie über die Option einer unkomplizierten Konfiguration und Filterung in der Benutzeroberfläche. Dies ermöglicht eine applikationsspezifische Optimierung: Die Filter blenden beispielsweise Messinformationen aus, die für die Umfeldüberwachung oder die Objekterkennung irrelevant sind. Das gewährleistet eine hohe Messsicherheit und Verfügbarkeit. Für OEMs und Machine-Vision-Integratoren besonders wichtig ist, dass die Sensoren ihre Informationen zusätzlich als Rohdaten zur Verfügung stellen. Bei der Übernahme in eigene Software-Lösungen werden viele gängige Programmiersprachen wie C++/C# oder Python sowie Software-Schnittstellen und Bibliotheken unterstützt, beispielsweise für das Robot Operating System (ROS), Halcon oder GenICam.
Time-of-Flight-Sensor für die Intralogistik
Der 3D-Umfeldsensor Visionary-T ermittelt Abstands- und Größeninformationen von Objekten durch 3D-Lichtlaufzeitmessung (3D Time-of-Flight, 3DToF). Er ermöglicht einen Arbeitsabstand von mindestens 10 m. Auch in dunklen Umgebungen und bei längeren Distanzen (bis zu 60 m) erreicht er durch die aktive Beleuchtung immer noch hohe Tiefengenauigkeiten.
Der Visionary-T kommt unter anderem in der Intralogistik zum Einsatz: Installiert auf fahrerlosen Transportfahrzeugen ermöglicht er eine robuste Kollisionswarnung. So erkennt er zuverlässig auch bei widrigen Lichtverhältnissen dunkle Hindernisse, die auf verschiedenen Höhen von oben oder von der Seite in den Fahrweg ragen können. Mit seinen bereits im Gerät ausgewerteten Daten liefert er Information wie Status der Beladung und des Befüllungsgrades von Ladungsträgern wie Containern, Gitterboxen, Racks oder Paletten. Das Erfassen der Kontur und Dimension von Fracht, beispielsweise beladener Paletten, ist ein weiteres intralogistisches Einsatzfeld des Sensors.
Auch Transportanlagen für Fluggepäck, auf denen Taschen, Koffer und Pakete erkannt, im Volumen vermessen und klassifiziert werden müssen, profitieren von der schnellen Verfügbarkeit der Messdaten des Visionary-T. Als Auge eines Roboters eignet sich der Snapshot-Sensor zur präzisen Sichtführung. In logistischen Prozessen beim Griff in die Kiste von etwas größeren Objekten wie Polybeuteln oder Säcken, sowie bei der automatischen Palettierung oder Depalettierung von Verpackungsgebinden, gewährleistet der Sensor auch für größere Arbeitsbereiche eine hohe Griffsicherheit.
Sensor für Fahrassistenzsysteme
Die Stereovisions-Sensoren der Produktfamilie Visionary-B sind für Anwendungen konzipiert, in denen es auf ein breites Erfassungsfeld, auf hohe mechanische Robustheit sowie auf eine flexible Integrationsfähigkeit ankommt. Je nach Produktvariante besteht die Lösung aus mindestens einem Stereo-Sensorkopf, einer Auswerteeinheit sowie einem Monitor zur Montage in der Fahrerkabine. Der Arbeitsabstand bis 7 m für Detektionsanwendungen und bis 15 m für Rohdaten sowie der Erfassungswinkel von 125 x 75° erzeugen ein mehrere Kubikmeter großes Überwachungsfeld. Dieses wird von zwei synchronisierten Kameras aus leicht versetzten Blickwinkeln aufgenommen. Aus dem Offset der beiden Bilder – den Snapshots – sowie den jeweils gemessenen Abstandswerten errechnet der Sensor zusätzlich zu 2D ein 3D-Bild der Umgebung.
Mögliche Hindernisse beim Wenden, Rangieren und Rückwärtsfahren erkennt das System – auch in Bereichen, die für den Fahrer schwer einsehbar sind –und zeigt es dem Fahrer auf dem Monitor an. Und zwar zusätzlich zum live übertragenen normalen 2D-Bild. Gleichzeitig blenden spezielle KI-Algorithmen des Snapshot-Sensors irrelevante Umfeldinformationen aus. Eine Alarmmeldung an den Fahrer gibt das System somit erst dann aus, wenn von dem erkannten Objekt innerhalb des Arbeitsumfelds tatsächlich eine Kollisionsgefahr ausgeht. Das vermeidet Falschalarme, die das Vertrauen des Fahrers in den Umfeldsensor und die Akzeptanz als unterstützendes Fahrassistenz- oder Fahrzeugsteuerungssystem beeinträchtigen würden.
Sensor für die präzise Roboterführung
Wie der Visionary-B arbeitet auch der 3D-Snapshot-Sensor Visionary-S mit dem 2-Augen-Prinzip der Stereovision – allerdings unterstützt durch eine aktive, strukturierte Beleuchtung. Eingesetzt wird der 3D-Umfeldsensor, wenn Genauigkeit im Nahbereich und Farbdaten (RGB) für die Anwendung eine entscheidende Rolle spielen. In submillimetergenauer Tiefenauflösung liefert die Kamera pro Sekunde bis zu 30 farbige Bilder. Präzise Tiefenwerte kann die Kamera bis 40 klx ausgeben – bei absoluter Dunkelheit ebenso wie in hellen Lichtumgebungen. Die hohe Genauigkeit bei gleichzeitiger Farbwahrnehmung vereinfacht es beispielsweise Robotern, beim Bin Picking Objekte in einem Behälter zu unterscheiden und somit gezielt zu greifen. Die Tiefenwerte der Stereovision verbessern die Objekterkennung zusätzlich, beispielsweise in Anwendungen, in denen Kisten dicht gepackt sind.
Depalettierungsprozesse lassen sich effizienter gestalten und beschleunigen, wenn Position und Ausrichtung der Ladung sowie die Höhe der einzelnen Lagen präzise erfasst und vermessen sind.
In der Visionary-S-AP-Variante steht für das Programmieren von Applikationen zusätzlich ein im Gerät eingebauter Prozessor zur Verfügung. Die hohe Aufnahmegeschwindigkeit und kurze Reaktionszeit des Sensors ermöglicht hierbei eine hohe Effizienz auch in dynamischen Anwendungen, beispielsweise in Prozessen, in denen Objekte auf einem Transport liegend von einem Roboter griffsicher aufgenommen werden sollen.
Programmierbare Snapshot-Sensoren für die Intralogistik
Ob Visionary-T für genaue Daten auch bei großen Arbeitsabständen, der Outdoor-geeignete intelligente Visionary-B und der im Nahbereich hochpräzise Visionary-S mit Farbbildern – sie alle bieten im Einsatzfeld der Intralogistik sensortechnische 3D-Lösungsmöglichkeiten. Noch vielseitiger einsetzbar sind die programmierbaren Visionary-Sensorversionen. Basierend auf dem Konzept des Eco-Systems Sick Appspace – einer gemeinsamen Programmierplattform für verschiedene Sensortechnologien des Unternehmens – können 3D-Machine-Vision-Spezialisten und Entwickler von Endanwendern oder Systemintegratoren Applikationen und Bedienoberflächen entwickeln.
Das Portfolio der 3D-Umfeldsensoren wird kontinuierlich ausgebaut, beispielsweise durch Sensoren mit höherer Tiefenauflösung, durch weitere programmierbare Varianten, durch auf dem Gerät laufende Sensor-Apps oder auch für Anwendungen der künstlichen Intelligenz. Es soll zudem neue, kompaktere Baugrößen geben, wie den Visionary-T Mini, die dem knappen Montageplatz auf Fahrzeugen oder in der kollaborativen Robotik gerecht werden.
Autoren
Dr. Nadja Nagel, Applications Engineer
Dr. Anatoly Sherman, Head of Business Unit, 3D Compact Systems