Technologies

News information

Il calcolo adattivo accelera l'arrivo dell'era dell'hardware definito dal software

Rilasciare : 3 set 2021

Il calcolo adattivo accelera l'arrivo dell'era dell'hardware definito dal software
Rete di appassionati di elettronica originale Cheng Wenzhi ieri
In passato, quando si progetta un prodotto, è necessario prima pianificare l'architettura hardware.Una volta completata la progettazione dell'hardware, inizierà lo sviluppo della parte software e quindi verrà rilasciato il prodotto completo. Ora, con lo sviluppo del cloud computing, di Internet e dell'aumento dell'intelligenza artificiale, del 5G e della guida autonoma, i requisiti del processo di sviluppo di hardware e prodotti stanno subendo cambiamenti senza precedenti, come prestazioni hardware più elevate; requisiti di sicurezza e riservatezza più elevati; sensore in aumento tipi e interfacce, algoritmi e modelli di intelligenza artificiale in continua evoluzione e lo sviluppo del software deve essere sincronizzato con lo sviluppo dell'hardware e così via.

Spinti da queste nuove esigenze, il concetto di "hardware definito dal software" è stato più volte menzionato. La gente spera che il controllo e la pianificazione di tutte le operazioni nel chip saranno completati dal software, in modo da ridurre il corrispondente sovraccarico hardware e l'uso la parte salvata Per l'elaborazione e l'archiviazione su chip. Questo desiderio sembra molto buono, ma ci sono ancora molte difficoltà per realizzarlo.Ad esempio, l'FPGA può realizzare alcune funzioni hardware definite dal software, ma la sua efficienza è inferiore all'ASIC, ma il suo consumo energetico è superiore all'ASIC. C'è un modo migliore?
Vantaggi delle piattaforme adattive

La piattaforma di calcolo adattivo di Xilinx è nata per questo. Secondo il white paper e l'area di calcolo adattivo di Xilinx, il calcolo adattivo si basa sulla tecnologia FPGA e supporta la costruzione dinamica dell'architettura specifica del dominio (DSA) sul chip. In altre parole, il calcolo adattivo consente di aggiornare dinamicamente DSA con i cambiamenti della domanda, evitando così i vincoli di lunghi cicli di progettazione ASIC e alti costi NRE. Con il continuo miglioramento del livello distribuito di elaborazione, l'elaborazione adattiva può supportare non solo l'aggiornamento via etere (OTA) del software, ma anche l'aggiornamento via etere dell'hardware e l'aggiornamento può essere ripetuto quasi in modalità wireless .
"Piattaforma adattiva" si riferisce a qualsiasi tipo di prodotto o soluzione incentrata su hardware adattivo. La piattaforma adattiva è completamente basata sulla stessa base hardware adattiva, ma contiene molto più dell'hardware o dei dispositivi chip, ma copre tutto l'hardware e un set completo di software di progettazione e software operativo.


1

 

"Libro bianco sull'informatica adattiva"

Scansiona il codice per scaricarlo ora
Con una piattaforma adattiva, gli ingegneri hardware possono liberarsi dal lavoro di progettazione ripetitivo e di fascia bassa e concentrarsi sullo sviluppo di funzioni professionali in cui sono bravi. Gli ingegneri del software possono iniziare il lavoro di progettazione contemporaneamente agli ingegneri hardware senza aspettare. l'hardware è progettato, inizia a funzionare.
2
Figura: diagramma schematico dell'hardware adattivo non configurato e configurato (fonte: Xilinx)
Naturalmente, oltre a questo vantaggio, la piattaforma adattiva presenta i seguenti vantaggi:
Uno è quello di accelerare il processo di lancio del prodotto. Ad esempio, uno dei prodotti della piattaforma di elaborazione adattiva di Xilinx, la scheda di accelerazione del data center Alveo, utilizza la scheda di accelerazione per creare applicazioni che possono essere accelerate per applicazioni specifiche senza la necessità di una personalizzazione hardware speciale. E basta aggiungere la scheda PCIe al servizio, puoi chiamare direttamente la libreria di accelerazione dall'applicazione software esistente.
Il secondo è ridurre i costi operativi. Rispetto alle soluzioni basate su CPU, a causa dell'aumento della densità di elaborazione, le applicazioni ottimizzate basate su piattaforme adattive possono fornire un'efficienza notevolmente migliorata in ogni nodo.
Il terzo è che il carico di lavoro può essere configurato in modo flessibile e dinamico. La piattaforma adattiva può essere riconfigurata in base alle esigenze attuali. Gli sviluppatori possono facilmente cambiare le applicazioni distribuite all'interno della piattaforma adattiva e utilizzare lo stesso dispositivo per soddisfare i mutevoli requisiti del carico di lavoro.
Il quarto è essere compatibili con il futuro. La piattaforma adattiva può adattarsi continuamente. Se le applicazioni esistenti richiedono nuove funzioni, l'hardware può essere riprogrammato per implementare queste funzioni nel modo migliore, riducendo la necessità di aggiornamenti hardware ed estendendo la vita utile del sistema.
In quinto luogo, l'applicazione complessiva può essere accelerata. Poiché l'inferenza dell'IA raramente esiste da sola, fa generalmente parte di una più ampia catena di analisi ed elaborazione dei dati, spesso coesistente con più fasi a monte ea valle che utilizzano soluzioni di implementazione tradizionali (non IA). L'intelligenza artificiale incorporata in questi sistemi beneficia in parte dell'accelerazione dell'intelligenza artificiale, mentre anche le parti non IA possono beneficiare dell'accelerazione. La naturale flessibilità del calcolo adattivo è adatta per accelerare le attività di elaborazione AI e non, che viene chiamata "accelerazione generale delle applicazioni". Man mano che l'inferenza dell'intelligenza artificiale ad alta intensità di calcolo penetra in più applicazioni, anche la sua importanza sta aumentando.
Caso di atterraggio di successo del calcolo adattivo

In passato, se gli ingegneri volevano utilizzare gli FPGA, dovevano costruire le proprie schede hardware e configurare FGPA con un linguaggio di descrizione hardware (HDL). Al giorno d'oggi, gli sviluppatori di piattaforme adattive devono solo utilizzare i loro framework e linguaggi software familiari (come C++, Python, TensorFlow, ecc.) per esercitare direttamente l'efficacia dell'elaborazione adattiva. In altre parole, gli sviluppatori di software e intelligenza artificiale non hanno bisogno di costruire circuiti stampati o diventare esperti di hardware per utilizzare liberamente il calcolo adattivo.

La cosa più conveniente è che gli ingegneri possono non solo chiamare direttamente il loro codice software esistente tramite API, ma anche utilizzare le librerie open source fornite dall'ecosistema e dai fornitori di fornitori di software indipendenti (ISV).Ci sono un gran numero di API accelerate disponibili nella libreria .
Prendiamo come esempio i due prodotti della piattaforma di elaborazione adattiva Kria SOM e le schede acceleratrici Alveo che Xilinx ha prodotto in serie. Kria SOM è basato sull'architettura Zynq UltraScale+ MPSoC e supporta gli sviluppatori nello sviluppo di applicazioni edge su una piattaforma adattiva chiavi in ​​mano. Standardizzando le parti principali del sistema, gli sviluppatori hanno più tempo per concentrarsi sulla creazione di funzionalità differenziate.
3

Il primo prodotto Kria SOM prodotto in serie da Xilinx è il SOM K26. In termini di configurazione hardware, il SOM K26 si basa sul design dell'architettura Zynq UltraScale+ MPSoC, con una dimensione complessiva di 77×60×11 mm, dotato di un braccio quad-core Il processore A53 e una memoria DDR4 da 4 GB a 64 bit integrata, con unità logica di sistema 256K e prestazioni del processore AI 1.4TOPS, supportano il codec video 4K 60p H.264/265.
Kria SOM è progettato, prodotto e testato come prodotto pronto per la produzione di massa, in grado di resistere a una varietà di ambienti applicativi difficili. Attualmente, Kria SOM è diviso in due categorie: grado industriale e grado commerciale.Il grado industriale supporta vibrazioni più elevate e temperature più estreme, nonché gradi di ciclo di vita più lunghi e manutenzione.
4

Kria SOM è principalmente per applicazioni di visione intelligente, quindi può essere utilizzato per il rilevamento di obiettivi ad alta velocità nelle città intelligenti, come il riconoscimento delle targhe, e allo stesso tempo può essere utilizzato anche per applicazioni di visione artificiale su linee di produzione industriale.
Per la scheda acceleratrice Alveo, utilizza l'interfaccia PCI-e standard del settore, che può fornire funzionalità di offload hardware per qualsiasi applicazione del data center e può essere utilizzata anche per l'archiviazione SmartSSD per accelerare sui punti di accesso di archiviazione. Inoltre, può essere utilizzato anche da SmartNIC per fornire direttamente accelerazione al traffico di rete.
Ad esempio, Alveo SN1000 SmartNIC, che espande l'inviluppo delle prestazioni di SmartNIC, si rivolge a data center e piattaforme di edge computing, combina reti ad alte prestazioni, cluster di CPU e FPGA su larga scala e costruisce un High Performance Computing (HPC) La piattaforma ha una significativa funzione di accelerazione della rete.
Inoltre, Alveo SN1000 SmartNIC adotta la standardizzazione e il framework software, non ha bisogno di occuparsi direttamente della programmazione FPGA, è più comodo da usare. Gli ingegneri possono utilizzare Xilinx o terze parti per supportare la maggior parte del firmware utilizzato negli FPGA e persino il software in esecuzione su cluster di CPU. Il cluster CPU può eseguire distribuzioni Linux standard, come Ubuntu e Yocto Linux. Il driver SmartNIC può essere utilizzato su piattaforme host come Red Hat Enterprise Linux (RHEL), CentOS e Ubuntu.
In termini di applicazione, Alveo è adatto per analisi genomiche, database grafici, elaborazione e analisi di immagini mediche e applicazioni di monitoraggio delle immagini basate su video. In termini di atterraggio delle applicazioni, ci sono già applicazioni nei data center e applicazioni di sequenziamento genico.
5