Plugin für Openvino-Toolkit
MVTec
Auf diese Weise lassen sich auf Intel-Prozessoren einschließlich CPUs, GPUs und VPUs für Schlüsselaufgaben deutlich höhere Geschwindigkeiten bei Deep-Learning-Inferenzen realisieren. Durch die Erweiterung des unterstützten Hardware-Spektrums können Nutzer nun auf die Performance einer breiten Palette von Intel-Devices zurückgreifen, um ihre Deep-Learning-Anwendungen zu beschleunigen, und sind nicht mehr auf wenige, sehr spezifische Geräte beschränkt.
Kunden sind dadurch noch flexibler bei der Wahl ihrer Hardware. Dabei funktioniert die Integration nahtlos und ist nicht an bestimmte Hardware-Spezifika gebunden. Allein durch die Änderung von Parametern lässt sich die Inferenz einer bestehenden Deep-Learning-Applikation nun auch auf Geräten ausführen, die vom Openvino-Toolkit unterstützt werden.