„Es gibt einen enormen Schub, KI-Fähigkeiten in Edge-Geräten zu bringen"
Interview mit Mark Oliver, Vizepräsident für Marketing und Business Development bei Efinix
inspect: Vor kurzem hat Efinix den FPGA Ti180 auf den Markt gebracht. Was sind seine Hauptmerkmale?
Mark Oliver: Ja, wir haben kürzlich den Titanium Ti180 auf den Markt gebracht und bemustern jetzt erste Kunden mit Chips. Der FPGA ist das neueste Mitglied der Titanium-Familie und wird im 16-nm-Prozess hergestellt. Er verfügt über 180K Logikelemente, bleibt aber dank der effizienten Quantum Compute Fabric klein und stromsparend. Er verfügt über eine eingebettete LPDDR4/4X-Schnittstelle für Hochgeschwindigkeitsverbindungen zu externem Speicher sowie Hochgeschwindigkeits-2,5G-MIPI-Schnittstellen für die Verbindung mit den neuesten Kamerasensoren und Displays. Er verfügt über 13 Mbits eingebetteten Speicher sowie 640 DSP-Blöcke. Weiterhin bietet er die gleichen Sicherheitsmerkmale wie die anderen Titanium-FPGAs und eignet sich daher gut für Edge-Anwendungen.
inspect: Warum ist es sinnvoll, die Produktpalette der FPGAs um ein Mittelklassemodell zu ergänzen?
Oliver: Wir sehen eine große Nachfrage nach Midrange-FPGAs. Es wird immer deutlicher, dass sich das Mooresche Gesetz verlangsamt und es unerschwinglich wird, kundenspezifisches Chips für alle Anwendungen mit Ausnahme der höchsten Stückzahlen zu produzieren. Designer suchen nach Alternativen, die kosteneffektiv sind und eine schnelle Markteinführung ermöglichen. Efinix-FPGAs bieten genau das in einer dichten und effizienten Plattform. Mit Efinix-FPGAs können Entwickler schnell Innovationen in einer konfigurierbaren Architektur entwickeln, die Anwendungen mit hoher Hardware-Geschwindigkeit und geringem Stromverbrauch bereitstellt.
Sobald das Design fertig ist, bedeutet die kosteneffiziente Struktur der Efinix-FPGAs, dass die Anwendung mit denselben Komponenten, die bei der Entwicklung im Labor verwendet wurden, in die Massenproduktion übernommen werden kann. Das ermöglicht eine sehr schnelle Markteinführung ohne Risiko und NRE.
inspect: Für welche Anwendungen ist es hauptsächlich geeignet?
Oliver: Wir haben Kunden, die Geräte der Titanium-Familie für so ziemlich jede denkbare Anwendung entwickeln. Ich muss sagen, dass die Hochgeschwindigkeits-MIPI-Schnittstelle und die Möglichkeit eines großen Bildspeichers in externem LPDDR4 besonders gut für intelligente Kameradesigns geeignet sind. Wir sehen laufend Entwürfe für industrielle Automatisierungskameras und Kameras mit Embedded AI sowie für die traditionelleren Überwachungs- und Wärmebildanwendungen.
inspect: Welche Branchen und Anwendungen werden die bereits geplanten zukünftigen Mid-Range-FPGAs abdecken?
Oliver: Einer der eindeutigen Trends, die wir derzeit auf dem Markt sehen, ist der Trend zu Edge Computing. Es besteht ein großer Wunsch, die Rechenleistung dort zu konzentrieren, wo die Daten erzeugt werden und wo sie einen Bezug haben. Diese Edge-Anwendungen eignen sich hervorragend für Efinix-FPGAs. Sie zeichnen sich dadurch aus, dass sie nur wenig Platz und Energie benötigen, aber dennoch hohe Anforderungen an die Rechenleistung erfüllen. Da Bildverarbeitung und künstliche Intelligenz zunehmend im Edge-Bereich eingesetzt werden, steigen die Anforderungen an die Rechenleistung noch mehr, so dass ein paralleler Ansatz erforderlich ist, der nur mit kundenspezifischen Chips oder FPGAs erreicht werden kann. Da die Preise für kundenspezifische Chips explodieren, gewinnen FPGAs zunehmend an Bedeutung. Wir sehen eine große Akzeptanz von Efinix-Produkten im Edge-Bereich, wo immer größere Datenmengen in Echtzeit verarbeitet werden müssen.
Diese Anwendungen beschränken sich nicht nur auf die offensichtlichen Edge-Anwendungen wie Smart Cities und Automotive, sondern erstrecken sich auch auf Bereiche wie AR/VR für Verbraucher- und Industrieanwendungen. Hier müssen viele verschiedene Sensoren in Echtzeit zusammengeführt werden, um Informationen in Echtzeit zu gewinnen. Dies ist ein Trend, den konventionelle Verarbeitungstechniken nicht ohne Weiteres erfüllen können oder sie werden für kundenspezifische Lösungen unerschwinglich. Wir sehen, dass FPGAs über ihre traditionelle Rolle hinauswachsen und zu eigenständigen Edge-Computing-Plattformen werden.
inspect: Das RISC-V-basierte System on Chip (SOC) soll die Entwicklungszeit von individuellen Bildverarbeitungssystemen beschleunigen. Wo genau liegen die Vorteile für Entwickler?
Oliver: Der Vorteil eines RISC-V-Ansatzes ist, dass die Anwendung sehr schnell in Software auf dem RISC-V entwickelt und validiert werden kann. Sobald Hotspots im Code identifiziert sind, können sie auf die FPGA-Hardware portiert werden, entweder als Beschleuniger oder unter Verwendung der RISC-V Custom Instruction. Das ist ein großer Vorteil und verkürzt die Zeit bis zur Marktreife. In Gesprächen mit unseren Kunden haben wir jedoch festgestellt, dass sie immer noch viel Zeit in die Entwicklung der Hardware-Beschleuniger und der gesamten Schnittstellenlogik zu deren Anbindung investieren. Wir haben uns entschlossen, diesen Prozess zu unterstützen, indem wir eine Standardschnittstelle zu einem Beschleunigerblock definieren und System-on-Chip-Vorlagen produzieren, die alle diese Schnittstellen bereits vordefiniert haben. Auf diese Weise muss der Entwickler nur noch den winzigen Kern des Beschleunigers programmieren, alles andere wird bereits mitgeliefert. Wir sind bei diesem Ansatz noch einen Schritt weiter gegangen und haben ein komplettes Referenzdesign für eine Bildverarbeitungsanwendung entwickelt, bei dem die „Sockel“ des Beschleunigers frei bleiben, damit die Entwickler ihre Anwendungen innovativ und differenziert gestalten können. Das Ergebnis für den Kunden ist die Möglichkeit, die Hardware/Software-Partitionierung dynamisch zu steuern und ein Design sehr schnell vom Konzept zum voll funktionsfähigen Produkt mit der gewünschten Leistung zu bringen.
inspect: Die winzige ML-Plattform von Efinix soll FPGA-Leistung bei geringem Stromverbrauch ermöglichen. Was genau beinhaltet diese Plattform?
Oliver: Eine der interessantesten Fähigkeiten unseres RISC-V-Kerns ist die Möglichkeit, benutzerdefinierte Befehle zu implementieren. Wir haben beschlossen, eine Bibliothek mit benutzerdefinierten Befehlen zusammenzustellen, die die von Tensorflow Lite definierten grundlegenden Operatoren übernehmen und auf dem RISC-V beschleunigen. Die daraus resultierende Tiny ML Platform kann quantisierte Modelle nehmen und sie mit Hardware-Geschwindigkeit im beschleunigten RISC-V-Kern ausführen. Dies liefert die erforderliche Leistung für AI on the edge, während gleichzeitig der kleine Platzbedarf und der geringe Stromverbrauch beibehalten werden.
Das Interview führte David Löh, Chefredakteur der inspect