Fremtiden for adaptiv databehandling: det komposerbare datasenteret

Kilde node: 805091

AdobeStock_267083342 (002).jpeg

Dette blogginnlegget er et utdrag fra hovedpresentasjonen til Salil Raje, EVP og GM Xilinx Data Center Group, gitt 24. mars 2021, på Xilinx Adapt: ​​Data Center. For å se Salils keynote on-demand, sammen med en rekke presentasjoner fra bransjeeksperter, kan du registrer deg og se innholdet her.

De fleste av oss møter fortsatt medarbeiderne våre via nettbaserte videokonferanser etter paradigmeskiftet forårsaket av COVID-19-pandemien. Du tenker sannsynligvis ikke så mye på hva som skal til for å streame alt innholdet og feedene fra møtene dine. Men hvis du er en datasenteroperatør, har du sannsynligvis ikke fått mye søvn det siste året og bekymret deg for hvordan du skal håndtere den enestående pandemiske økningen i videotrafikk.

Ikke bare det, men datasentre må i disse dager håndtere en eksplosjon av ustrukturerte data fra et bredt spekter av arbeidsbelastninger som videokonferanser, strømmeinnhold, nettspill og e-handel. Mange av disse applikasjonene er svært følsomme for ventetid og er også underlagt stadig utviklende standarder for komprimering, kryptering og databasearkitekturer.

Dette har tvunget datasentre til å skalere opp infrastrukturen for å møte ytelses- og latenskravene til en rekke krevende arbeidsbelastninger, samtidig som de prøver å minimere kostnader og strømforbruk. Det viser seg å være veldig vanskelig, og det tvinger datasenteroperatører til å revurdere sin nåværende arkitektur og utforske nye konfigurasjoner som iboende er mer skalerbare og effektive.

For øyeblikket har de fleste datasentre rack med faste sett med ressurser, som kombinerer SSD-er, CPUer og akseleratorer i en enkelt server. Selv om dette sikrer en høy båndbreddeforbindelse mellom databehandling og lagring, er det svært ineffektivt når det gjelder ressursutnyttelse, siden det er et fast forhold mellom lagring og databehandling på hver server. Ettersom arbeidsbelastninger krever en annen blanding av databehandling og lagring, blir det igjen øyer med ubrukte ressurser på hver server.

Komponerbar infrastruktur

En ny arkitektur dukker opp som lover å gi en dramatisk forbedring i ressursutnyttelsen. Det er kjent som "komponerbar infrastruktur". Komponerbar infrastruktur innebærer dekobling ressurser og i stedet slå dem sammen og gjøre dem tilgjengelige fra hvor som helst. Komponerbare infrastrukturer muliggjør levering av arbeidsbelastninger med akkurat den rette mengden ressurser, og rask rekonfigurering via programvare.

En komponerbar arkitektur med samlinger av CPUer, SSDS og akseleratorer som er koblet sammen i nettverk og kontrollert av et standardbasert klargjøringsrammeverk lover betydelig forbedret datasenterressurseffektivitet. I en slik arkitektur kan forskjellige arbeidsbelastninger ha forskjellige krav til databehandling, lagring og akselerasjon, og disse ressursene vil bli tildelt deretter uten bortkastet maskinvare. Alt dette høres bra ut i teorien, men i praksis er det ett stort problem: latens.

Latency Challenge

Når du deler opp ressurser og flytter dem lenger fra hverandre, pådrar du deg flere forsinkelser og redusert båndbredde på grunn av nettverkstrafikken mellom CPUer og SSDer, eller mellom CPUer og akseleratorer. Med mindre du har en måte å redusere nettverkstrafikken på og koble sammen ressursene på en effektiv måte, kan dette være sterkt begrensende. Det er der FPGA-er spiller tre hovedroller for å løse latensutfordringen:

  • FPGA-er fungerer som tilpasningsdyktige akseleratorer som kan tilpasses for hver arbeidsbelastning for maksimal ytelse. 
  • FPGA-er kan også bringe databehandling nærmere dataene, og dermed redusere ventetiden og minimere nødvendig båndbredde.
  • Den tilpasningsdyktige, intelligente strukturen til FPGA-er muliggjør effektiv sammenslåing av ressurser uten å pådra seg for store forsinkelser. 

Tilpassbar akselerasjon

Den første betydelige fordelen for FPGA-baserte dataakseleratorer er dramatisk forbedret ytelse for arbeidsbelastninger som er etterspurt i disse dager. I brukstilfeller for videotranskoding for live streaming-applikasjoner overgår FPGA-løsninger typisk x86 CPUer med 30x, noe som hjelper datasenteroperatører å møte den enorme økningen i antall samtidige strømmer. Et annet eksempel er i det kritiske feltet genomisk sekvensering. En fersk Xilinx genomics-kunde fant at vår FPGA-baserte akselerator ga svaret 90 ganger raskere enn en CPU, og hjalp medisinske forskere med å teste DNA-prøver på en brøkdel av tiden det en gang tok.

Flytter Compute nærmere data

Den andre hovedfordelen for FPGA-er i et komponerbart datasenter er muligheten til å bringe tilpasningsdyktig databehandling nær dataene, enten i hvile eller i bevegelse. Xilinx FPGA-er som brukes i SmartSSD-beregningslagringsenheter akselererer funksjoner som høyhastighetssøk, parsing, komprimering og kryptering, som vanligvis utføres av en CPU. Dette bidrar til å avlaste CPU-en for mer komplekse oppgaver, men reduserer også trafikken mellom CPU-en og SSD-ene, og reduserer dermed båndbreddeforbruket og reduserer ventetiden.

Tilsvarende brukes nå våre FPGA-er i SmartNIC-er som vår nye Alveo SN1000 for å akselerere data i bevegelse med wire-speed pakkebehandling, komprimering og kryptotjenester samt evnen til å tilpasse seg tilpassede byttekrav for et bestemt datasenter eller kunde.   

Intelligent stoff

When you combine an FPGA’s adaptable compute acceleration with low-latency connectivity, you can go a step further in the composable data center.  You can assign a compute-heavy workload to a cluster of accelerators that are interconnected by an adaptable intelligent fabric - creating a high-performance computer on demand.

Selvfølgelig er ingenting av dette mulig hvis du ikke kan programmere dataakseleratorene, SmartSSD-ene og SmartNIC-ene med de optimale akselerasjonsalgoritmene, og deretter sørge for de riktige tallene for hver arbeidsbelastning. For den oppgaven har vi bygget en omfattende programvarestabel som utnytter domenespesifikke industrirammeverk som TensorFlow og FFMPEG, som fungerer sammen med Vitis-utviklingsplattformen vår. Vi ser også en rolle for forsyningsrammeverk på høyere nivå som RedFish for å hjelpe med intelligent ressursallokering.

Fremtiden er nå

Løftet om det komponerbare datasenteret er en spennende endring, og Xilinx-enheter og akseleratorkort er nøkkelbyggesteiner for denne nye effektive arkitekturen. Med rask rekonfigurerbarhet, lav ventetid og en fleksibel arkitektur som kan tilpasse seg skiftende arbeidsbelastninger, er Xilinx godt posisjonert for å være en viktig aktør i denne utviklingen.

Kilde: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Tidstempel: