De toekomst van adaptief computergebruik: het samengestelde datacenter

Bronknooppunt: 805091

AdobeStock_267083342 (002) .jpeg

Deze blogpost is een uittreksel uit de keynote-presentatie van Salil Raje, EVP en GM Xilinx Data Center Group, gegeven op 24 maart 2021 in Xilinx Adapt: ​​Data Center. Om de keynote van Salil on-demand te zien, samen met een groot aantal presentaties door experts uit de industrie, dat kan registreer en bekijk de inhoud hier.

De meesten van ons ontmoeten onze collega's nog steeds via online videoconferenties na de paradigmaverschuiving veroorzaakt door de COVID-19-pandemie. U denkt waarschijnlijk niet veel na over wat er nodig is om alle inhoud en feeds van uw vergaderingen te streamen. Maar als u een datacenteroperator bent, heeft u het afgelopen jaar waarschijnlijk niet veel geslapen omdat u zich zorgen maakt over het omgaan met de ongekende pandemische golf van videoverkeer.

Niet alleen dat, maar datacenters hebben tegenwoordig te maken met een explosie van ongestructureerde gegevens van een breed scala aan workloads, zoals videoconferenties, streaming-inhoud, online gaming en e-commerce. Veel van deze applicaties zijn erg gevoelig voor latentie en zijn ook onderhevig aan steeds veranderende standaarden voor compressie, codering en databasearchitecturen.

Dit heeft datacenters gedwongen hun infrastructuur op te schalen om te voldoen aan de prestatie- en latentievereisten van een verscheidenheid aan veeleisende workloads, terwijl ze tegelijkertijd proberen de kosten en het stroomverbruik te minimaliseren. Dat blijkt erg moeilijk te zijn, en het dwingt datacenterbeheerders om hun huidige architectuur te heroverwegen en nieuwe configuraties te verkennen die inherent schaalbaarder en efficiënter zijn.

Momenteel hebben de meeste datacenters racks met vaste sets bronnen, waarbij SSD's, CPU's en Accelerators in één server worden gecombineerd. Hoewel dit zorgt voor een verbinding met een hoge bandbreedte tussen compute en storage, is het erg inefficiënt in termen van resourcegebruik, aangezien er op elke server een vaste verhouding tussen storage en compute is. Omdat workloads een andere combinatie van rekenkracht en opslag vereisen, blijven er eilanden met ongebruikte bronnen op elke server achter.

Composable infrastructuur

Er is een nieuwe architectuur in opkomst die belooft een drastische verbetering te brengen in het gebruik van hulpbronnen. Het staat bekend als "composable infrastructuur". Composable infrastructuur houdt in ontkoppeling middelen en in plaats daarvan bundelen ze en maken ze overal toegankelijk. Samengestelde infrastructuren maken de levering van werklasten mogelijk met precies de juiste hoeveelheid bronnen en snelle herconfiguratie via software.

Een samenstelbare architectuur met pools van CPU's, SSDS en accelerators die in een netwerk zijn opgenomen en worden bestuurd door een op standaarden gebaseerd provisioning-framework, belooft een sterk verbeterde resource-efficiëntie van datacenters. In een dergelijke architectuur kunnen verschillende werkbelastingen verschillende reken-, opslag- en versnellingsvereisten hebben, en die bronnen zullen dienovereenkomstig worden toegewezen zonder verspilde hardware. Dat klinkt allemaal geweldig in theorie, maar in de praktijk is er één groot probleem: latentie.

De latentie-uitdaging

Als u bronnen opsplitst en verder uit elkaar plaatst, loopt u meer vertragingen en verminderde bandbreedte op vanwege het netwerkverkeer tussen CPU's en SSD's, of tussen CPU's en accelerators. Tenzij u een manier hebt om het netwerkverkeer te verminderen en de bronnen op een efficiënte manier met elkaar te verbinden, kan dit ernstig beperkend zijn. Dat is waar FPGA's drie belangrijke rollen spelen bij het oplossen van de latentie-uitdaging:

  • FPGA's fungeren als aanpasbare accelerators die kunnen worden aangepast voor elke workload voor maximale prestaties. 
  • FPGA's kunnen de computer ook dichter bij de gegevens brengen, waardoor de latentie wordt verminderd en de vereiste bandbreedte wordt geminimaliseerd.
  • De aanpasbare, intelligente structuur van FPGA's maakt een efficiënte bundeling van middelen mogelijk zonder overmatige vertragingen. 

Aanpasbare versnelling

Het eerste belangrijke voordeel voor op FPGA gebaseerde rekenversnellers zijn de drastisch verbeterde prestaties voor workloads waar tegenwoordig veel vraag naar is. In gebruikssituaties voor videotranscodering voor livestreamingstoepassingen presteren FPGA-oplossingen doorgaans 86x beter dan x30-CPU's, waardoor datacenteroperators kunnen voldoen aan de enorme toename van het aantal gelijktijdige streams. Een ander voorbeeld is op het kritische gebied van genomische sequencing. Een recente klant van Xilinx genomics ontdekte dat onze op FPGA gebaseerde versneller het antwoord 90 keer sneller leverde dan een CPU, waardoor medische onderzoekers DNA-monsters konden testen in een fractie van de tijd die het ooit kostte.

Compute dichter bij gegevens brengen

Het tweede belangrijke voordeel voor FPGA's in een samenstelbaar datacenter is de mogelijkheid om aanpasbare rekenkracht dicht bij de gegevens te brengen, zowel in rust als in beweging. Xilinx FPGA's die worden gebruikt in SmartSSD-computeropslagapparaten versnellen functies zoals zoeken op hoge snelheid, parsing, compressie en codering, die meestal worden uitgevoerd door een CPU. Dit helpt de CPU te ontlasten voor complexere taken, maar vermindert ook het verkeer tussen de CPU en de SSD's, waardoor het bandbreedteverbruik wordt verminderd en de latentie wordt verminderd.

Op dezelfde manier worden onze FPGA's nu gebruikt in SmartNIC's zoals onze nieuwe Alveo SN1000 om data in beweging te versnellen met wirespakketverwerking, compressie en cryptodiensten, evenals de mogelijkheid om zich aan te passen aan aangepaste schakelvereisten voor een bepaald datacenter of klant.   

Intelligente stof

When you combine an FPGA’s adaptable compute acceleration with low-latency connectivity, you can go a step further in the composable data center.  You can assign a compute-heavy workload to a cluster of accelerators that are interconnected by an adaptable intelligent fabric - creating a high-performance computer on demand.

Dit is natuurlijk allemaal niet mogelijk als u de rekenversnellers, SmartSSD's en SmartNIC's niet kunt programmeren met de optimale versnellingsalgoritmen en ze vervolgens in de juiste aantallen voor elke workload kunt voorzien. Voor die taak hebben we een uitgebreide softwarestack gebouwd die gebruikmaakt van domeinspecifieke brancheframeworks zoals TensorFlow en FFMPEG, die samenwerken met ons Vitis-ontwikkelingsplatform. We zien ook een rol weggelegd voor provisioning-frameworks op een hoger niveau, zoals RedFish, om te helpen bij intelligente toewijzing van middelen.

De toekomst is nu

De belofte van het composable datacenter is een opwindende verandering en Xilinx-apparaten en acceleratorkaarten zijn belangrijke bouwstenen voor deze nieuwe efficiënte architectuur. Met snelle herconfiguratie, lage latentie en een flexibele architectuur die zich kan aanpassen aan veranderende workloads, is Xilinx goed gepositioneerd om een ​​belangrijke speler in deze evolutie te zijn.

Bron: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Tijdstempel: