Il futuro dell'Adaptive Computing: il data center componibile

Nodo di origine: 805091

AdobeStock_267083342 (002) .jpeg

Questo post del blog è tratto dalla presentazione principale di Salil Raje, EVP e GM Xilinx Data Center Group, tenuta il 24 marzo 2021 a Xilinx Adapt: ​​Data Center. Per vedere il keynote di Salil su richiesta, insieme a una vasta gamma di presentazioni da parte di esperti del settore, puoi farlo registrati e visualizza il contenuto qui.

La maggior parte di noi sta ancora incontrando i nostri colleghi tramite videoconferenza online dopo il cambio di paradigma causato dalla pandemia COVID-19. Probabilmente non stai pensando molto a ciò che serve per trasmettere in streaming tutti i contenuti e i feed dalle tue riunioni. Ma se sei un operatore di data center probabilmente non hai dormito molto nell'ultimo anno preoccupandoti di come gestire l'impennata pandemica senza precedenti nel traffico video.

Non solo, ma oggigiorno i data center devono gestire un'esplosione di dati non strutturati da un'ampia gamma di carichi di lavoro come videoconferenze, contenuti in streaming, giochi online ed e-commerce. Molte di queste applicazioni sono molto sensibili alla latenza e sono anche soggette a standard in continua evoluzione per la compressione, la crittografia e le architetture di database.

Ciò ha costretto i data center a scalare la propria infrastruttura per soddisfare i requisiti di prestazioni e latenza di una varietà di carichi di lavoro impegnativi, cercando allo stesso tempo di ridurre al minimo i costi e il consumo energetico. Ciò si sta rivelando molto difficile e costringe gli operatori di data center a ripensare la loro attuale architettura ed esplorare nuove configurazioni che sono intrinsecamente più scalabili ed efficienti.

Attualmente, la maggior parte dei data center dispone di rack con set fissi di risorse, che combinano SSD, CPU e acceleratori in un unico server. Sebbene ciò garantisca una connessione a larghezza di banda elevata tra elaborazione e archiviazione, è molto inefficiente in termini di utilizzo delle risorse, poiché esiste un rapporto fisso di archiviazione e calcolo in ogni server. Poiché i carichi di lavoro richiedono una diversa combinazione di elaborazione e archiviazione, in ogni server vengono lasciate isole di risorse inutilizzate.

Infrastruttura componibile

Sta emergendo una nuova architettura che promette di apportare un notevole miglioramento nell'utilizzo delle risorse. È noto come "infrastruttura componibile". Comporta infrastrutture componibili disaccoppiamento risorse e invece unendole insieme e rendendole accessibili da qualsiasi luogo. Le infrastrutture componibili consentono il provisioning dei carichi di lavoro con la giusta quantità di risorse e una rapida riconfigurazione tramite software.

Un'architettura componibile con pool di CPU, SSDS e acceleratori collegati in rete e controllati da un framework di provisioning basato su standard promette un'efficienza delle risorse del data center notevolmente migliorata. In un'architettura di questo tipo, carichi di lavoro diversi potrebbero avere requisiti di elaborazione, archiviazione e accelerazione diversi e tali risorse verranno assegnate di conseguenza senza sprechi di hardware. Sembra tutto fantastico in teoria, ma in pratica c'è un grosso problema: la latenza.

La sfida della latenza

Man mano che si disaggregano le risorse e le si allontana, si verificano più ritardi e larghezza di banda ridotta a causa del traffico di rete tra CPU e SSD o tra CPU e acceleratori. A meno che non si disponga di un modo per ridurre il traffico di rete e interconnettere le risorse in modo efficiente, ciò può essere seriamente limitante. È qui che gli FPGA svolgono tre ruoli principali nel risolvere la sfida della latenza:

  • Gli FPGA agiscono come acceleratori adattabili che possono essere personalizzati per ogni carico di lavoro per le massime prestazioni. 
  • Gli FPGA possono anche avvicinare il calcolo ai dati, riducendo così la latenza e riducendo al minimo la larghezza di banda richiesta.
  • La struttura adattabile e intelligente degli FPGA consente un efficiente raggruppamento delle risorse senza incorrere in ritardi eccessivi. 

Accelerazione adattabile

Il primo vantaggio significativo per gli acceleratori di elaborazione basati su FPGA è il notevole miglioramento delle prestazioni per i carichi di lavoro che sono molto richiesti in questi giorni. Nei casi d'uso di transcodifica video per applicazioni di live streaming, le soluzioni FPGA in genere superano di 86 volte le CPU x30, il che aiuta gli operatori di data center a soddisfare l'enorme aumento del numero di flussi simultanei. Un altro esempio è nel campo critico del sequenziamento genomico. Un recente cliente di genomica Xilinx ha scoperto che il nostro acceleratore basato su FPGA ha fornito la risposta 90 volte più velocemente di una CPU, aiutando i ricercatori medici a testare campioni di DNA in una frazione del tempo impiegato una volta.

Avvicinamento del calcolo ai dati

Il secondo vantaggio chiave degli FPGA in un data center componibile è la capacità di avvicinare il calcolo adattabile ai dati, a riposo o in movimento. Gli FPGA Xilinx utilizzati nei dispositivi di archiviazione computazionale SmartSSD accelerano funzioni come ricerca ad alta velocità, analisi, compressione e crittografia, che di solito vengono eseguite da una CPU. Questo aiuta a scaricare la CPU per attività più complesse, ma riduce anche il traffico tra la CPU e gli SSD, riducendo così il consumo di larghezza di banda e riducendo la latenza.

Allo stesso modo, i nostri FPGA sono ora utilizzati in SmartNIC come il nostro nuovo Alveo SN1000 per accelerare i dati in movimento con elaborazione di pacchetti wire-speed, compressione e servizi di crittografia, nonché la capacità di adattarsi ai requisiti di commutazione personalizzati per un particolare data center o cliente.   

Tessuto intelligente

When you combine an FPGA’s adaptable compute acceleration with low-latency connectivity, you can go a step further in the composable data center.  You can assign a compute-heavy workload to a cluster of accelerators that are interconnected by an adaptable intelligent fabric - creating a high-performance computer on demand.

Ovviamente, niente di tutto ciò è possibile se non puoi programmare gli acceleratori di calcolo, SmartSSD e SmartNIC con gli algoritmi di accelerazione ottimali e quindi fornirli nei numeri giusti per ogni carico di lavoro. Per questo compito, abbiamo creato uno stack software completo che sfrutta framework di settore specifici del dominio come TensorFlow e FFMPEG, che funzionano insieme alla nostra piattaforma di sviluppo Vitis. Vediamo anche un ruolo per framework di provisioning di livello superiore come RedFish per aiutare con l'allocazione intelligente delle risorse.

Il futuro è ora

La promessa del data center componibile è un cambiamento entusiasmante e i dispositivi Xilinx e le schede acceleratrici sono elementi fondamentali per questa nuova architettura efficiente. Con una rapida riconfigurabilità, una bassa latenza e un'architettura flessibile in grado di adattarsi ai cambiamenti dei carichi di lavoro, Xilinx è ben posizionata per essere un attore importante in questa evoluzione.

Fonte: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Timestamp:

Di più da XLNX