Bildverarbeitung

3D-Technologien als Sinnesorgane

Vision-Anwendung mit Edge-Architektur

22.11.2021 - Klassische Bildverarbeitung oder smarte Vision-Sensoren? ­Klassische Systeme haben durchaus ihre Berechtigung, wenn es beispielsweise um die Inline-Qualitätskontrolle geht. Doch bei preissensitiven Anwendungen stoßen sie an ihre Grenzen. Neuronale Netze sowie Künstliche Intelligenz eröffnen hier neue Möglichkeiten. Hinzu kommt, dass die Anwendungen nicht unbedingt auf einem separaten Rechner ablaufen – der Weg geht hier in Richtung Embedded Vision und Edge.

Die automatische Palettenerkennung ist eine der Anwendungen, die mit den O3D-Kameras von IFM als Embedded-Lösung umgesetzt werden können.
Die automatische Palettenerkennung ist eine der Anwendungen, die mit den O3D-Kameras von IFM als Embedded-Lösung umgesetzt werden können. (Bild: IFM Electronic)

 

Klassische Bildverarbeitungslösungen sind leistungsfähig und bieten unter anderem hohe Auflösungen und schnelle Verarbeitungsgeschwindigkeiten. Sie können einzelne Teile gut mit einer vorgegebenen Geometrie vergleichen und liefern dabei sehr gute Erkennungsquoten. Typische Anwendungen solcher Systeme finden sich etwa in der Inline-Qualitätskontrolle in der Fertigung. Aber mit anderen Aufgaben, die auf den ersten Blick einfach erscheinen, sind solche Lösungen überfordert, da sie sich nicht formal bzw. mathematisch beschreiben lassen. Ein typisches Beispiel ist die Erkennung einer Hand. Zur Faust geballt, einzelne oder alle Finger ausgestreckt, mit der Handfläche nach oben oder unten, rechte oder linke Hand – die möglichen Bilder sind so unterschiedlich, dass sie mit einer auf Algorithmen basierten Bildverarbeitung nicht mit ausreichender Sicherheit als Hand erkannt werden können.
Das für die eigene Produktion in Tettnang entwickelte Werker-Assistenzsystem IFM Mate stellt aber genau diese Anforderung. Über eine Kamera, die oberhalb des Arbeitsplatzes montiert ist, soll das System die Hand detektieren, um zu erkennen, ob der Mitarbeiter in eine bestimmte Box gegriffen hat. Zum Einsatz kommt hier eine auf neuronalen Netzen basierende Technologie der Künstlichen Intelligenz (KI). Mit dem sogenanntem Deep-Learning-Ansatz erreicht das System eine hohe Erkennungssicherheit. Ob der Werker Rechts- oder Linkshänder ist, spielt ebenso wenig eine Rolle wie die Haltung der Hand. Das Werker-Assistenzsystem kommt durch die optische Handerkennung ohne zusätzliche Hilfsmittel wie VR-Brillen oder Tracker am Handgelenk aus.

Vom AGV zum AMR

Für diesen Ansatz des maschinellen Lernens in der Bildverarbeitung gibt es zahlreiche weitere potenzielle Applikationen. Einer der größten Wachstumsmärkte für 3D-Bildverarbeitung, die neben dem Bild auch Abstandsinformationen für jedes Pixel ermittelt, ist die Intralogistik. Automated Guided Vehicles (AGV) oder auch Fahrerlose Transportfahrzeuge sind bereits weit verbreitet und bieten enorme Potenziale für Flexibilisierung und Effizienzsteigerung in Logistik- und Produktionsanwendungen. AGVs arbeiten mit einer Vielzahl unterschiedlicher Sensoren, die es ihnen ermöglicht, sich auf vorgegebenen Routen beispielsweise innerhalb einer Lagerhalle zu bewegen. Zusätzlich ist standardmäßig eine Kollisionsüberwachung installiert, die in der Regel auf einem Laserscanner basiert. Dieser überwacht den Bereich in Fahrtrichtung etwa 10 cm über dem Boden und stoppt das AGV, wenn es ein Hindernis auf dem geplanten Weg erkennt. Unfälle werden so vermieden, und die AGVs können auch in Umgebungen eingesetzt werden, in denen sich Personen aufhalten könnten. Diese auf Laserscannern basierende Kollisionsüberwachung hat allerdings auch Einschränkungen: Typisches Beispiel ist ein Gegenstand, der aus einem Regalfach herausragt. Da der Laserscanner nur den Bereich nah am Boden überwacht, kann er solche Hindernisse nicht erkennen. Eine 3D-Kamera wie die O3D von IFM kann hier mehr Informationen liefern und damit auch die Hindernis-Erkennung verfeinern.
Mit 3D-Kameras und den genannten Methoden der KI lässt sich auch der Weg in Richtung zunehmende Autonomie beschreiten. Aus AGVs werden AMRs (Autonomous Mobile Robot) mit deutlich umfangreicheren Fähigkeiten. Eine typische Anwendung ist etwa die Palettenerkennung für autonome Gabelstapler. Der Gabelstapler navigiert dabei mit den oben beschriebenen Methoden bis zu der Position, an der er eine Palette aufnehmen soll. Die genaue Positionierung der Gabel ist eine anspruchsvolle Aufgabe, die IFM mit der O3D-Kamera gelöst hat, die etwas oberhalb und zwischen den Gabelzinken montiert ist. Wenn sich der Gabelstapler auf eine bestimmte Entfernung an die Palette angenähert hat, nimmt die 3D-Kamera ein Bild auf und wertet es direkt aus. Als Ergebnis liefert das System die Koordinaten der Palette in x-, y- und z-Richtung sowie eventuelle Verdrehungen um die Vertikalachse oder horizontale Verkippungen. Bei diesem Pallet Detection System (PDS) arbeitet die Bildverarbeitung direkt in der Kamera. Damit verfolgt das Unternehmen eine Strategie, bei der viele Funktionalitäten direkt in der Edge erledigt werden. Diese Architektur eignet sich vor allem bei fest vorgegebenen Anwendungsfällen, für die dann die passenden Funktionalitäten im Edge-Gerät zur Verfügung gestellt werden. Der Anwender bzw. Systemintegrator muss in diesem Fall keine weitere Softwareentwicklung betreiben.

KI-Funktionalitäten in der Edge

Die oben beschriebenen Methoden des Deep Learn­ings mit neuronalen Netzen und andere Ansätze der KI lassen sich auch verwenden, um eine verbesserte Orientierung der AMRs im Raum zu realisieren. Durch das dazu verwendete Verfahren, Simultaneous Localization and Mapping (Slamming), weiß der AMR, wie seine Umgebung aussieht und wo er sich innerhalb dieser Umgebung befindet (Localization). Wenn er sich in dieser Umgebung bewegt, kann er zusätzlich eine Karte seiner Umgebung anfertigen (Mapping). Durch den Einsatz von neuronalen Netzen und anderen Methoden der KI lassen sich solche Aufgaben lösen. Damit simuliert ein solches System genau die Methode, mit der ein Mensch diese Aufgabe löst. Mit unseren Sinnesorganen nehmen wir die Daten aus unserer Umgebung auf und das neuronale Netz in unserem Gehirn erstellt daraus eine abstrakte Vorstellung einer Karte der Umgebung, in der wir uns bewegen.
Die Rolle der Sinnesorgane werden für KI-Anwendungen durch Sensoren übernommen. Neben 3D-Kameras, wie die aus der O3D-Serie von IFM, kommen auch Laserscanner, Radar- oder Ultraschallsensoren zum Einsatz. Notwendig ist hier die sogenannte Sensordatenfusion, bei der zusätzliche Informationen aus der Kombination der Daten unterschiedlicher Sensoren gewonnen wird. Die Kombination und Auswertung der verschiedenen Sensordaten stellen allerdings die verwendeten Systeme vor Herausforderungen. Für die Entwicklung neuronaler Netze sind zwar bereits erprobte Systeme verfügbar, diese verlangen allerdings viel Software-Know-how, und in der Regel werden solche Systeme auf einem leistungsfähigen PC entwickelt. Weitere Hürden für die Verbreitung solcher Systeme im großen Umfang sind die hohen Kosten: für die verschiedenen Sensoren, die Integration sowie die Hardware, auf der die entsprechenden neuronalen Netze implementiert werden.

Offene Plattform mit Edge-Architektur

Um die Sensordatenfusion und die Anwendung von KI-Methoden für mobile Roboter zu erleichtern, ist eine Edge-Architektur ein vielversprechender Ansatz. In einem entsprechenden Edge-Device können die Daten der angeschlossenen Sensoren erfasst und direkt verarbeitet werden. Notwendig sind sowohl eine hohe Rechenleistung als auch die Möglichkeit, unterschiedliche Sensoren anzubinden. IFM arbeitet aktuell an einer solchen Hardware-Plattform, an die sich bis zu sechs 3D-Kameras und zahlreiche weitere Sensoren anschließen lassen. Ein Linux-System, das mit einer NVIDIA Video Processing Unit ausgerüstet ist, und GigE-Schnittstellen bilden die Hardware-Basis, auf der sich auch anspruchsvolle KI-Anwendungen realisieren lassen. Da die Bildverarbeitung bei diesem Konzept in das Edge-Gerät wandert, ist in der Kamera kaum Datenverarbeitung notwendig. Dadurch vereinfacht die Plattform die 3D-Bildverarbeitung. Da auch die Kosten durch das neuartige Konzept sinken, eröffnen sich neue Möglichkeiten für die Anwendung in mobilen Robotern. In der Zukunft wird auf dieser Basis eine komplette Suite von Lösungen für die unterschiedlichen Bereiche entstehen. Mit der Offenheit des Systems bietet IFM den Anwender eine Plattform, mit der sie auch eigene Lösungen schnell und kostengünstig umsetzen können.

Autor
Jörg Lantzsch, freier Autor

Kontakt

ifm electronic gmbh

Friedrichstr. 1
45128 Essen

+49 201 2422 0
+49 201 2422 200

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon

Spannende Artikel zu Fokus-Themen finden Sie in unseren E-Specials. Lesen Sie jetzt die bisher erschienenen Ausgaben.

Zu den E-Specials

Media Kit

Die Mediadaten 2025 sind jetzt verfügbar! Laden Sie sie hier herunter.

Industrie-Lexikon

Begriffe aus der Bildverarbeitung und Automation, die man kennen sollte

Zum Lexikon