inspect award 2020 Gewinnerprodukt Linux-basierte Smartkamera mit Event-Based Sensor
Carsten Strampe, Managing Director bei Imago, erklärt die Vorteile von Event-based und wird einen Blick auf die Embedded World
inspect: Wo sehen Sie den USP Ihrer Linux-basierten Smart-Kamera mit Event-based-Sensor?
Carsten Strampe: Das Besondere an der Kamera ist der Sensor sowie die Kombination aus Smart-Kamera und Event-based-Sensor in einem Industrieprodukt.
inspect: Was genau heißt Event-based?
Carsten Strampe: In der Bildverarbeitung haben wir 2D-Bilder, die von einer Kamera Bild für Bild erfasst werden, das heißt nacheinander. Und wenn sich im Bild bestimmt Dinge bewegen, muss ich diese Bewegung mit einem bestimmten Algorithmus aus dem gesamten Bild extrahieren. Bei Event-based habe ich keine Kamera im herkömmlichen Sinne mehr, sondern hier sagt jeder Pixel für sich, dass in der Szene etwas passiert ist. Diese Bewegungen können bis zu 20 kHz schnell sein. Das heißt, bei Event-Based erfasse ich nur noch Bewegungsdaten zu ganz unterschiedlichen Zeitpunkten, die sogenannten Events – und keine festen Frames mehr. Als Ergebnis habe ich dann auf meinem Rechner einen zeitlichen Strom von Events, den ich dann mathematisch interpretieren muss.
inspect: Und wie bekomme ich jetzt die Smart-Kamera und den Event-based-Sensor zusammen?
Carsten Strampe: Im klassischen Sinne handelt es sich hierbei um keine Kamera mehr, die Bild für Bild erfasst. Es ist mehr ein allgemeiner Oberbegriff für diese Art von Systemen.
inspect: Wo sehen Sie den größten Nutzen für den Anwender?
Carsten Strampe: Der Anwender muss zum einen nicht mehr herausbekommen, was sich auf den einzelnen Bildern bewegt respektive verändert hat. Zudem erhält er je nach Anwendung wesentlich mehr Informationen im Vergleich zu einer Highspeed-Kamera.
inspect: Was sind denn typische Anwendungsfelder?
Carsten Strampe: Hier sind wir aktuell an vielen Anwendungsfeldern dran, teilweise auch an vielen neuen. Der Fokus liegt sicher im Bereich Vibrationserfassung. Hier geht es um die Interpretation von Bewegung und das je schneller desto besser.
Zudem haben wir eine erste Applikation – Injection Control – selbst entwickelt. Hier soll mit Event-based geprüft werden, ob beispielsweise eine Tablette, die nicht in Ordnung ist, wirklich ausgepustet wurde und nicht irgendwo hängengeblieben ist. Um das zu prüfen, sind Sensoren typischerweise zu unzuverlässig und Bildverarbeitung viel zu teuer. Doch mit Event-based lässt sich das recht simpel prüfen, denn wenn die Tablette ausgepustet wird, löst dies zahlreiche Events aus – auch in staubigen Umgebungen oder unter schlechten Beleuchtungsbedingungen. Des Weiteren ist die Prozessindustrie für uns noch komplett neu, aber durchaus auch interessant.
inspect: Am 25. Februar startet das Messejahr mit der Embedded World. Was wird bei Imago zu sehen sein?
Carsten Strampe: Klar, Event-based. Weiterhin werden wir die Visionbox Daytona mit dem Nvidia-Tegra-TX2-Prozessor zeigen, der sehr gern für Deep-Learning-Applikationen genutzt wird, um die Inferenzprogramme rechnen zu lassen. Wir haben diesen relativ simpel mit den typischen BV-Schnittstellen verheiratet. Das dritte Thema geht in Richtung Integration der Visioncam mit Optik und Beleuchtung.
Eine Übersicht über die Gewinner des inspect award 2020 finden Sie hier.
Kontakt
Imago Technologies GmbH
Straßheimer Str. 45
61169 Friedberg
Deutschland
+49 6031 684 26 11
+49 6031 684 26 12