Embedded Vision versus VisionBox versus IPC?
Unterschiede und Entscheidungskriterien verschiedener Plattformen
Embedded Vision ist in aller Munde, die BV-Spezialisten-Familie VisionBox ist seit zwei Jahrzehnten am Markt und Machine Vision wird rechnerseitig oft mit IPCs (Industrial PC) realisiert. Was sind die Unterschiede – was sind die wesentlichen Kriterien für die eine oder andere Lösung? Ergänzt wird diese Fragestellung um neue Anforderungen wie Deep Learning, Data Mining, 3D Imaging oder die Auswertung hyperspektraler Bilder.
Embedded Vision
Etwas konkreter sprechen wir über Embedded Machine Vision – als Abgrenzung zu anderen Gerätschaften wie z.B. die bei einem Optiker. Eingebettet in die Maschine sind Kameras und Rechner (oft auch als Boardversion, sprich Leiterkarte); Schnittstellen sind optimiert und bieten in der Regel wesentlich mehr Vielfalt als typische ARM-basierte Evalboards mit Kameraanschluss. Bei Platzmangel werden Elektronikboards z.B. als Flex-Leiterkarte so angepasst, dass sie minimalen Raum benötigen. Elektronikhersteller aus der Welt industrieller Komponenten sind in der Lage, Embedded Machine Vision Lösungen zu entwickeln, allgemeinen Herstellern fehlt dagegen häufig das spezifische Maschinen-Know-How. Beispielsweise würde man sich an ein explosionsgeschütztes Gehäusedesign nicht heranwagen - sofern man kein Experte ist. Im Elektronikdesign ist es jedoch wesentlich komplexer. Ein Kriterium bei Embedded Vision ist besonders wichtig: Die heutige Komplexität nicht nur des Hardwaredesigns, sondern auch von Firmware, Middleware und unterstützenden Bibliotheken benötigt Spezialwissen – das sich nur bei Stückzahlen rechnet. Es ist wichtig stets nach der „Minimum Order Quantity“, kurz MOQ, pro Jahr zu fragen. Modifiziert man bestehende Produkte, so rechnet es sich bei MOQ = 250. Wird es spezieller, müssen es schnell 1.000 sein, einige Hersteller sagen auch größer 10k. Weiterhin interessant ist das Niveau, von dem aus Embedded Vision entwickelt wird: ist es das CPU-Evalboard eines Distributors? Oder sind nahezu alle erforderlichen Komponenten technisch vorhanden und fehlende mit begrenztem Risiko zu entwickeln? Embedded Machine Vision hat – bei großen Stückzahlen - viele Vorteile in der Serie, in der Langlebigkeit, im Platzverbrauch, in der technischen und kommerziellen Optimierung.
VisionBox
Eine VisionBox fokussiert sich auf Machine Vision relevante Schnittstellen, die Einhaltung von Prozesszeiten (also die Echtzeitfähigkeit der Anwendung) und rechnerseitig auf die Erfüllung insbesondere der Anforderungen von Bildverarbeitungsprogrammen. Betriebssystem und I/O-Verhalten sind sauber getrennt zwischen nicht echtzeitfähigen OS wie Windows oder Linux, besser echtzeitfähigem Real-Time Linux und den Ein-/Ausgängen. Letztere werden mit dem Real-Time Communication Controller gesteuert, inklusive der Erzeugung von Kameratriggersignalen via Trigger-over-Ethernet. Ob integrierte LED-Blitzansteuerung, Feldbusschnittstelle oder das Zeitverhalten von Kameraschnittstellen – alles wird maßgeblich für die Bildverarbeitung ausgelegt und optimiert. Einer muss dann ständig arbeiten, das ist die CPU bzw. deren Rechenbeschleuniger wie GPU. Spezielles Know-how ist erforderlich, da eine moderne CPU nicht darauf ausgelegt ist, permanent im Takt von 100 Bildern/s komplexe Rechenschritte auszuführen. Erfunden für die Büroarbeit „gibt eine CPU ab und an einmal Gas“ – arbeitet danach normal und macht es sich in Stromsparmodi „gemütlich“. Anders in der Bildverarbeitung! Throtteln gilt nicht. 365 Tage im 24/7 Betrieb muss sie „schuften“. Hinzu kommen moderne Softwaretechnologien wie Deep Learning Algorithmen, die häufig eine GPU erfordern. Ergänzend zu GPU-Einsteckkarten gibt es auch hier einen Spezialisten namens NVidia Tegra TX2, eine Kombination aus ARM-Kernen und GPU-Rechenleistung, integriert in der VisionBox DAYTONA, zusammen mit besagten Schnittstellen.
IPC
Kamera an den IPC anschließen, Software entwickeln, fertig. IPCs haben durchaus ihren Stellenwert als Machine Vision Rechner. Fehlt eine Schnittstelle, wird einfach die passende Karte eingesteckt. Ist ja seit 1995 alles Plug and Play. Oder nicht? Bis man letztendlich mit der Bildverarbeitung loslegen kann, benötigt es schon mehr Know-how, Tests und PC-Wissen. Stichworte sind Betriebssystem, Treiber, Kompatibilität, aber auch 24/7-Betrieb mit ständiger CPU-Auslastung. Zudem werden IPCs in Schaltschränken integriert, sind somit schon recht nahe am Geschehen. Der Weg in Richtung Embedded Vision in der Maschine selbst ist jedoch eher verbaut. Unterschätzen sollte man auch nicht die Komplexität, die entsteht, wenn der IPC verschiedene Aufgaben parallel übernimmt. Dem einen oder anderen Experten vergeht das Lachen, wenn er an die Erfahrung von Debugging oder Validierung erinnert wird. Final stellt sich die Frage, wer denn eine VisionBox, ein Embedded Vision System oder einen IPC herstellt? IPC-Hersteller müssen sehr viele Märkte bedienen – mit einem allgemeinen Rechner. Hersteller von embedded CPU-Boards freuen sich, wenn eine freilaufende Rolling Shutter Kamera bewegte Bilder an die CPU liefert und sprechen von Bildverarbeitung. Der Anbieter sollte besser die Besonderheiten von Machine Vision kennen, Erfahrungen haben, sowie das „Jägerlatein“ der Bildverarbeiter verstehen und in seine Produkte implementieren.
Neue, anspruchsvolle Anwendungen
On top kommen Anforderungen aus neuen, rechenintensiven Anwendungen, also Deep Learning, hyperspektrale Bildauswertungen, 3D Bilderzeugung und -analyse. Sind mehr Kerne die Lösung? Warum nicht, verlustarme ARM-CPUs mit 8 Cortex-A72 Kernen gibt es. Nicht so beliebt bei Programmierern sind heterogene Ansätze, oft jedoch nicht vermeidbar. Eine GPU-PCIe-Karte im Rechner besticht durch Rechenleistung, Energieverbrauch, Abwärme und kurze Verfügbarkeit. Gelingt die Reduktion der erforderlichen GPU-Power, kommen die NVidia Tegra-Prozessoren zum Zug: ARM-Kerne kombiniert mit GPU-Kernen. Alle weiteren Lösungen werden schnell sehr arbeitsintensiv, speziell in der Serienproduktion über viele Jahre. Zudem sollte man sich nicht so schnell mit Embedded Vision in Automotive-Anwendungen wie autonomem Fahren vergleichen. Hochkomplexe Bildverarbeitung von Fahrerassistenzsystemen wird mit Hunderten von Ingenieuren entwickelt – und dies auf hochoptimierten, heterogenen „Systems on Chip“ (SoC) mit ARM, DSP, Image-Prozessor und GPU.
Embedded Vision versus VisionBox versus IPC?
Die Antwort auf diese Frage: Man kann zweimal das Wort „versus“ streichen. Jede Lösung hat ihre Berechtigung, ihre Kundschaft und ihren Markt. So wie in der Vergangenheit oft bewiesen, werden aus leistungsfähigen IPC-Systemen im Laufe der Jahre Smart Kameras, Visionsensoren oder Ähnliches: Hochintegriert, optimiert, in 1k oder 10k Stückzahl hergestellt, oft aber nur für den Mainstream. Der IPC lernt auch dazu, Hersteller integrieren Kameras oder Smart Cameras und Softwareinfrastruktur, Bildverarbeitung ist dann eine Anwendung von vielen. Die VisionBox-Familie von Imago Technologies deckt die technologischen Feinheiten ab, von den Schnittstellen über CPU-Architekturen bis hin zu den GPU-basierten Rechenbeschleunigern. VisionBoxen schrumpfen zu frei in Linux programmierbaren VisionCams oder günstigen VisionSensoren. Höher optimiert wird es ein Embedded Machine Vision System. Im fragmentierten und innovativen Markt der industriellen Bildverarbeitung gibt es (zum Glück!) nicht den roten Faden – jedoch genügend Experten mit guten Ideen.
Kontakt
Imago Technologies GmbH
Straßheimer Str. 45
61169 Friedberg
Deutschland
+49 6031 684 26 11
+49 6031 684 26 12