Achronix sulla selezione della piattaforma per l'IA all'edge

Achronix sulla selezione della piattaforma per l'IA all'edge

Nodo di origine: 1931159

Colin Alexander (Direttore del marketing di prodotto presso Achronix) ha recentemente pubblicato un webinar su questo argomento. A soli 20 minuti il ​​webinar è un facile guardare e un utile aggiornamento sul traffico dati e sulle opzioni di implementazione. I download sono ancora dominati dai video (oltre il 50% per Facebook) che ora dipendono fortemente dalla memorizzazione nella cache o vicino al limite. Quale di questi si applica dipende dalla tua definizione di "bordo". Il mondo dell'IoT si vede come l'edge, il mondo del cloud e dell'infrastruttura vede apparentemente l'ultimo nodo di elaborazione nell'infrastruttura, prima di quei dispositivi foglia, come l'edge. Patata, potato. In ogni caso, la vista dell'infrastruttura dell'edge è dove troverai la memorizzazione nella cache video, per servire i download più popolari nel modo più efficiente e rapido possibile.

Achronix sulla selezione della piattaforma per l'IA all'edge

Opzioni di calcolo all'edge (e nel cloud)

Colin parla inizialmente del vantaggio dell'infrastruttura in cui è richiesta una certa potenza nel calcolo e nell'intelligenza artificiale. Presenta le opzioni standard: CPU, GPU, ASIC o FPGA. Una soluzione basata su CPU offre la massima flessibilità perché la tua soluzione sarà interamente basata su software. Per lo stesso motivo, sarà generalmente anche l'opzione di latenza più lenta, più assetata di energia e più lunga (presumo per il viaggio di andata e ritorno ai nodi foglia). Le GPU sono leggermente migliori in termini di prestazioni e potenza con una flessibilità leggermente inferiore rispetto alle CPU. Un ASIC (hardware personalizzato) sarà il più veloce, la potenza più bassa e la latenza più bassa, sebbene nel concetto meno flessibile (tutti gli aspetti intelligenti sono nell'hardware che non può essere modificato).

Presenta FPGA (o embedded FPGA/eFPGA) come un buon compromesso tra questi due estremi. Migliore in termini di prestazioni, potenza e latenza rispetto a CPU o GPU e da qualche parte tra una CPU e una GPU in termini di flessibilità. Anche se molto meglio di un ASIC sulla flessibilità perché un FPGA può essere riprogrammato. Il che ha tutto senso per me, anche se penso che la storia avrebbe dovuto essere completata aggiungendo DSP alla line up della piattaforma. Questi possono avere vantaggi hardware specifici dell'IA (vettorizzazione, array MAC, ecc.) che vanno a vantaggio di prestazioni, potenza e latenza. Pur mantenendo la flessibilità del software. L'altra considerazione importante è il costo. Questo è sempre un argomento delicato, ovviamente, ma CPU, GPU e dispositivi FPGA compatibili con l'intelligenza artificiale possono essere costosi, una preoccupazione per la distinta base di un nodo perimetrale.

L'argomento di Colin ha molto senso per me al limite per eFPGA incorporato in un SoC più grande. In un'applicazione cloud, i vincoli sono diversi. Una scheda di interfaccia di rete intelligente probabilmente non è così sensibile al prezzo e potrebbe esserci un vantaggio in termini di prestazioni in una soluzione basata su FPGA rispetto a una soluzione basata su software.

Il supporto delle applicazioni AI all'edge di elaborazione tramite un eFPGA sembra un'opzione che vale la pena approfondire. Più in là verso i nodi foglia è sfocato per me. Un tracker logistico o un sensore di umidità del suolo sicuramente non ospiterà un calcolo significativo, ma che dire di un telecomando TV ad attivazione vocale? O un microonde intelligente? Entrambi hanno bisogno di intelligenza artificiale, ma nessuno dei due ha bisogno di molta potenza. Il forno a microonde ha alimentazione cablata, ma un telecomando TV o un altoparlante intelligente remoto funziona a batterie. Sarebbe interessante conoscere i compromessi eFPGA qui.

Funzionalità eFPGA per l'intelligenza artificiale

Secondo la scheda tecnica, Speedster 7t offre MAC interi completamente fratturabili, virgola mobile flessibile, supporto nativo per bfloat ed efficienti moltiplicazioni di matrici. Non sono riuscito a trovare alcun dato su TOPS o TOPS/Watt. Sono sicuro che dipende dall'implementazione, ma gli esempi sarebbero utili. Anche ai margini, alcune applicazioni sono molto sensibili alle prestazioni, ad esempio la sorveglianza intelligente e il rilevamento di oggetti rivolti in avanti nelle automobili. Sarebbe interessante sapere dove l'eFPGA potrebbe inserirsi in tali applicazioni.

Webinar stimolante. Puoi guardarlo QUI.

Condividi questo post tramite:

Timestamp:

Di più da Semiwiki