Technologies

News information

Adaptive Computing beschleunigt die Ankunft des softwaredefinierten Hardwarezeitalters

Loslassen am : 03.09.2021

Adaptive Computing beschleunigt die Ankunft des softwaredefinierten Hardwarezeitalters
Original Cheng Wenzhi Electronic Enthusiast Network gestern
In der Vergangenheit muss beim Design eines Produkts zunächst die Hardware-Architektur geplant werden: Nach Abschluss des Hardware-Designs beginnt die Entwicklung des Software-Teils und dann wird das komplette Produkt freigegeben. Mit der Entwicklung von Cloud Computing, dem Internet und dem Aufkommen von KI, 5G und autonomem Fahren unterliegen die Anforderungen an den Entwicklungsprozess von Hardware und Produkten beispiellosen Veränderungen, wie z Typen und Schnittstellen, sich ständig weiterentwickelnde KI-Algorithmen und -Modelle, und die Softwareentwicklung muss mit der Hardwareentwicklung synchronisiert werden und so weiter.

Angetrieben von diesen neuen Anforderungen wurde das Konzept der "Software-Defined Hardware" oft erwähnt. Man hofft, dass die Steuerung und Planung aller Operationen im Chip durch Software erledigt wird, um den entsprechenden Hardware-Overhead und die Nutzung zu reduzieren der gespeicherte Teil Für Computer und On-Chip-Speicherung. Dieser Wunsch sieht sehr gut aus, aber es gibt noch viele Schwierigkeiten, ihn zu verwirklichen: FPGA kann beispielsweise einige softwaredefinierte Hardwarefunktionen realisieren, aber seine Effizienz ist geringer als bei ASIC, aber seine Leistungsaufnahme ist höher als bei ASIC. Gibt es einen besseren Weg?
Vorteile adaptiver Plattformen

Dafür wurde die Adaptive Computing-Plattform von Xilinx geboren. Laut Xilinx's Whitepaper zum adaptiven Computing und zum adaptiven Computing-Bereich basiert adaptives Computing auf der FPGA-Technologie und unterstützt den dynamischen Aufbau einer domänenspezifischen Architektur (DSA) auf dem Chip. Mit anderen Worten, die adaptive Berechnung ermöglicht eine dynamische Aktualisierung des DSA bei Bedarfsänderungen, wodurch die Beschränkungen langer ASIC-Entwurfszyklen und hoher NRE-Kosten vermieden werden. Durch die kontinuierliche Verbesserung der verteilten Verarbeitungsebene kann adaptives Computing nicht nur das Over-the-Air-Update (OTA) von Software unterstützen, sondern auch das Over-the-Air-Update von Hardware, und das Update kann fast drahtlos wiederholt werden .
"Adaptive Plattform" bezieht sich auf jede Art von Produkt oder Lösung, die auf adaptiver Hardware ausgerichtet ist. Die adaptive Plattform basiert vollständig auf derselben adaptiven Hardwaregrundlage, enthält jedoch weit mehr als Chiphardware oder -geräte, sondern deckt die gesamte Hardware und einen umfassenden Satz an Design- und Betriebssoftware ab.


1

 

"Whitepaper zum adaptiven Computing"

Code scannen, um ihn jetzt herunterzuladen
Mit einer adaptiven Plattform können sich Hardware-Ingenieure von repetitiven und Low-End-Designarbeiten befreien und sich auf die Entwicklung professioneller Funktionen konzentrieren, in denen sie gut sind. Software-Ingenieure können gleichzeitig mit Hardware-Ingenieuren mit der Designarbeit beginnen, ohne zu warten die Hardware ist entworfen, es beginnt zu arbeiten.
2
Abbildung: Schematische Darstellung unkonfigurierter und konfigurierter adaptiver Hardware (Quelle: Xilinx)
Neben diesem Vorteil bietet die adaptive Plattform natürlich folgende Vorteile:
Eine davon ist die Beschleunigung des Produkteinführungsprozesses. Beispielsweise verwendet eines der adaptiven Computerplattformprodukte von Xilinx, die Alveo-Beschleunigerkarte für Rechenzentren, die Beschleunigerkarte, um Anwendungen zu erstellen, die für bestimmte Anwendungen beschleunigt werden können, ohne dass eine spezielle Hardwareanpassung erforderlich ist. Und fügen Sie einfach die PCIe-Karte zum Service hinzu, Sie können die Beschleunigungsbibliothek direkt aus der vorhandenen Softwareanwendung aufrufen.
Zweitens sollen die Betriebskosten gesenkt werden. Im Vergleich zu CPU-basierten Lösungen können optimierte Anwendungen auf Basis adaptiver Plattformen aufgrund der höheren Rechendichte an jedem Knoten eine deutlich verbesserte Effizienz bieten.
Drittens kann der Workload flexibel und dynamisch konfiguriert werden. Die adaptive Plattform kann entsprechend den aktuellen Anforderungen umkonfiguriert werden. Entwickler können innerhalb der adaptiven Plattform problemlos zwischen bereitgestellten Anwendungen wechseln und dasselbe Gerät verwenden, um sich ändernde Workload-Anforderungen zu erfüllen.
Der vierte soll zukunftsfähig sein. Die adaptive Plattform kann sich kontinuierlich anpassen. Wenn bestehende Anwendungen neue Funktionen erfordern, kann die Hardware umprogrammiert werden, um diese Funktionen optimal zu implementieren, was den Bedarf an Hardware-Upgrades reduziert und die Lebensdauer des Systems verlängert.
Fünftens kann die Gesamtanwendung beschleunigt werden. Da KI-Inferenz selten allein existiert, ist sie im Allgemeinen Teil einer größeren Datenanalyse- und -verarbeitungskette, die oft mit mehreren vor- und nachgelagerten Stufen koexistiert, die traditionelle (Nicht-KI) Implementierungslösungen verwenden. Eingebettete KI in diesen Systemen profitiert teilweise von der KI-Beschleunigung, während Nicht-KI-Teile ebenfalls von der Beschleunigung profitieren können. Die natürliche Flexibilität des adaptiven Computings eignet sich für die Beschleunigung von KI- und Nicht-KI-Verarbeitungsaufgaben, die als "Gesamtanwendungsbeschleunigung" bezeichnet wird. Da rechenintensive KI-Inferenz in immer mehr Anwendungen vordringt, nimmt auch ihre Bedeutung zu.
Erfolgreicher Landefall von Adaptive Computing

Wenn Ingenieure in der Vergangenheit FPGAs verwenden wollten, mussten sie ihre eigenen Hardwareplatinen bauen und FGPA mit einer Hardwarebeschreibungssprache (HDL) konfigurieren. Entwickler von adaptiven Plattformen müssen heutzutage nur noch ihre vertrauten Software-Frameworks und Sprachen (wie C++, Python, TensorFlow usw.) verwenden, um die Effektivität des adaptiven Computings direkt auszuüben. Mit anderen Worten, Software- und KI-Entwickler müssen keine Leiterplatten bauen oder Hardware-Experten werden, um adaptives Computing frei nutzen zu können.

Noch praktischer ist, dass Ingenieure nicht nur ihren vorhandenen Softwarecode über APIs direkt aufrufen können, sondern auch die Open-Source-Bibliotheken des unabhängigen Softwareanbieters (ISV)-Ökosystems und der Anbieter nutzen können. In der Bibliothek stehen eine große Anzahl beschleunigter APIs zur Verfügung .
Nehmen Sie als Beispiel die beiden adaptiven Computerplattformprodukte Kria SOM und Alveo-Beschleunigerkarten, die Xilinx in Serie produziert hat. Kria SOM basiert auf der Zynq UltraScale+ MPSoC-Architektur und unterstützt Entwickler bei der Entwicklung von Edge-Anwendungen auf einer schlüsselfertigen adaptiven Plattform. Durch die Standardisierung der Kernteile des Systems haben Entwickler mehr Zeit, sich auf die Erstellung differenzierter Funktionen zu konzentrieren.
3

Das erste in Serie produzierte Kria-SOM-Produkt von Xilinx ist das K26 SOM. In Bezug auf die Hardware-Konfiguration basiert das K26 SOM auf dem Zynq UltraScale+ MPSoC-Architekturdesign mit einer Gesamtgröße von 77 × 60 × 11 mm, ausgestattet mit einem Quad-Core-Arm A53-Prozessor und ein integrierter 64-Bit-4-GB-DDR4-Speicher mit 256K-Systemlogikeinheit und 1,4TOPS AI-Prozessorleistung unterstützen 4K 60p H.264/265-Videocodec.
Kria SOM wurde als serienreifes Produkt entwickelt, hergestellt und getestet, das einer Vielzahl von rauen Anwendungsumgebungen standhält. Derzeit ist Kria SOM in zwei Kategorien unterteilt: Industriequalität und Handelsqualität.Die Industriequalität unterstützt höhere Vibrationen und extremere Temperaturen sowie längere Lebensdauer und Wartung.
4

Kria SOM ist hauptsächlich für intelligente Bildverarbeitungsanwendungen gedacht und kann daher für die Hochgeschwindigkeits-Zielerkennung in Smart Cities wie die Nummernschilderkennung verwendet werden, gleichzeitig kann es auch für Bildverarbeitungsanwendungen in industriellen Produktionslinien verwendet werden.
Für die Alveo-Beschleunigerkarte verwendet sie die branchenübliche PCI-e-Schnittstelle, die Hardware-Offloading-Funktionen für jede Rechenzentrumsanwendung bietet und auch für SmartSSD-Speicher zur Beschleunigung auf Speicherzugriffspunkten verwendet werden kann. Darüber hinaus kann es auch für SmartNIC verwendet werden, um den Netzwerkverkehr direkt zu beschleunigen.
Zum Beispiel Alveo SN1000 SmartNIC, das den Leistungsumfang von SmartNIC erweitert, auf Rechenzentren und Edge-Computing-Plattformen abzielt, Hochleistungsnetzwerke, CPU-Cluster und groß angelegte FPGAs kombiniert und ein High-Performance-Computing (HPC) baut eine bedeutende Netzwerkbeschleunigungsfunktion.
Darüber hinaus übernimmt Alveo SN1000 SmartNIC die Standardisierung und das Software-Framework, muss sich nicht direkt mit der FPGA-Programmierung befassen und ist bequemer zu verwenden. Ingenieure können Xilinx oder Drittanbieter verwenden, um den Großteil der Firmware zu unterstützen, die in FPGAs verwendet wird, und sogar Software, die auf CPU-Clustern ausgeführt wird. Der CPU-Cluster kann Standard-Linux-Distributionen wie Ubuntu und Yocto Linux ausführen. Der SmartNIC-Treiber kann auf Hostplattformen wie Red Hat Enterprise Linux (RHEL), CentOS und Ubuntu verwendet werden.
In Bezug auf die Anwendung eignet sich Alveo für Genomanalysen, Grafikdatenbanken, medizinische Bildverarbeitung und -analyse sowie videobasierte Bildüberwachungsanwendungen. Im Bereich Application Landing gibt es bereits Anwendungen in Rechenzentren und Gensequenzierungsanwendungen.
5