Przyszłość obliczeń adaptacyjnych: Composable Data Center

Węzeł źródłowy: 805091

AdobeStock_267083342 (002).jpeg

Ten post na blogu jest fragmentem głównej prezentacji Salila Raje, wiceprezesa i GM Xilinx Data Center Group, wygłoszonej 24 marca 2021 r. w Xilinx Adapt: ​​Data Center. Aby zobaczyć przemówienie Salila na żądanie wraz z dużą liczbą prezentacji ekspertów branżowych, możesz zarejestruj się i zobacz zawartość tutaj.

Większość z nas nadal spotyka się ze współpracownikami za pośrednictwem wideokonferencji online po zmianie paradygmatu spowodowanej pandemią Covid-19. Prawdopodobnie nie zastanawiasz się zbyt wiele nad tym, czego potrzeba, aby przesyłać strumieniowo całą zawartość i kanały ze spotkań. Jeśli jednak jesteś operatorem centrum danych, prawdopodobnie nie spałeś zbyt wiele przez ostatni rok, martwiąc się, jak sobie poradzić z bezprecedensowym, pandemicznym wzrostem ruchu wideo.

Co więcej, centra danych muszą obecnie obsługiwać eksplozję nieustrukturyzowanych danych pochodzących z szerokiego zakresu obciążeń, takich jak wideokonferencje, treści przesyłane strumieniowo, gry online i handel elektroniczny. Wiele z tych aplikacji jest bardzo wrażliwych na opóźnienia i podlega stale zmieniającym się standardom w zakresie kompresji, szyfrowania i architektur baz danych.

Zmusiło to centra danych do skalowania swojej infrastruktury, aby sprostać wymaganiom dotyczącym wydajności i opóźnień w przypadku różnych wymagających obciążeń, przy jednoczesnej próbie minimalizacji kosztów i zużycia energii. Okazuje się to bardzo trudne i zmusza operatorów centrów danych do ponownego przemyślenia swojej obecnej architektury i poszukiwania nowych konfiguracji, które z natury są bardziej skalowalne i wydajne.

Obecnie większość centrów danych ma szafy ze stałymi zestawami zasobów, łączącymi dyski SSD, procesory i akceleratory w jednym serwerze. Chociaż zapewnia to połączenie o dużej przepustowości między mocą obliczeniową a pamięcią masową, jest ono bardzo nieefektywne pod względem wykorzystania zasobów, ponieważ na każdym serwerze występuje stały stosunek pamięci i mocy obliczeniowej. Ponieważ obciążenia wymagają innego połączenia mocy obliczeniowej i pamięci masowej, na każdym serwerze pozostają wyspy niewykorzystanych zasobów.

Infrastruktura komponowalna

Pojawia się nowa architektura, która obiecuje radykalną poprawę wykorzystania zasobów. Nazywa się to „infrastrukturą komponowalną”. Infrastruktura komponowalna pociąga za sobą oddzielenie zasobów, a zamiast tego łączyć je i udostępniać z dowolnego miejsca. Komponowalne infrastruktury umożliwiają przydzielanie obciążeń odpowiednią ilością zasobów i szybką rekonfigurację za pomocą oprogramowania.

Komponowalna architektura z pulami procesorów, dysków SSD i akceleratorów połączonych w sieć i kontrolowanych przez opartą na standardach strukturę udostępniania zapewnia znacznie lepszą efektywność wykorzystania zasobów centrum danych. W takiej architekturze różne obciążenia mogą mieć różne wymagania dotyczące obliczeń, pamięci masowej i przyspieszenia, a zasoby te zostaną odpowiednio przydzielone bez marnowania sprzętu. Wszystko to brzmi świetnie w teorii, ale w praktyce istnieje jeden poważny problem: opóźnienie.

Wyzwanie związane z opóźnieniem

W miarę rozdzielania zasobów i przenoszenia ich dalej od siebie następuje więcej opóźnień i zmniejszona przepustowość z powodu ruchu sieciowego między procesorami i dyskami SSD lub między procesorami i akceleratorami. Jeśli nie masz sposobu na zmniejszenie ruchu sieciowego i efektywne połączenie zasobów, może to poważnie ograniczać. W tym przypadku układy FPGA odgrywają trzy główne role w rozwiązywaniu problemu opóźnień:

  • Układy FPGA działają jak adaptowalne akceleratory, które można dostosować do każdego obciążenia w celu uzyskania maksymalnej wydajności. 
  • Układy FPGA mogą również przybliżać obliczenia do danych, zmniejszając w ten sposób opóźnienia i minimalizując wymaganą przepustowość.
  • Elastyczna, inteligentna struktura układów FPGA umożliwia efektywne łączenie zasobów bez powodowania nadmiernych opóźnień. 

Adaptacyjne przyspieszenie

Pierwszą znaczącą zaletą akceleratorów obliczeniowych opartych na FPGA jest radykalna poprawa wydajności w przypadku obciążeń, na które obecnie jest duże zapotrzebowanie. W przypadkach użycia transkodowania wideo w aplikacjach do przesyłania strumieniowego na żywo rozwiązania FPGA zazwyczaj przewyższają procesory x86 30-krotnie, co pomaga operatorom centrów danych sprostać ogromnemu wzrostowi liczby jednoczesnych strumieni. Innym przykładem jest krytyczna dziedzina sekwencjonowania genomu. Niedawny klient firmy Xilinx zajmujący się genomiką odkrył, że nasz akcelerator oparty na FPGA dostarczył odpowiedź 90 razy szybciej niż procesor, pomagając badaczom medycznym testować próbki DNA w ułamku czasu, jaki zajmowało to kiedyś.

Przenoszenie obliczeń bliżej danych

Drugą kluczową zaletą układów FPGA w komponowanym centrum danych jest możliwość dostosowania adaptacyjnych obliczeń blisko danych, zarówno w stanie spoczynku, jak i w ruchu. Układy FPGA Xilinx stosowane w obliczeniowych urządzeniach pamięci masowej SmartSSD przyspieszają funkcje takie jak szybkie wyszukiwanie, analizowanie, kompresja i szyfrowanie, które zwykle są wykonywane przez procesor. Pomaga to odciążyć procesor w przypadku bardziej złożonych zadań, ale także zmniejsza ruch między procesorem a dyskami SSD, zmniejszając w ten sposób zużycie przepustowości i zmniejszając opóźnienia.

Podobnie nasze układy FPGA są obecnie wykorzystywane w kartach SmartNIC, takich jak nasz nowy Alveo SN1000, do przyspieszania danych w ruchu dzięki bezprzewodowemu przetwarzaniu pakietów, kompresji i usługom kryptograficznym, a także możliwości dostosowania do niestandardowych wymagań przełączania dla konkretnego centrum danych lub klienta.   

Inteligentna tkanina

Jeśli połączysz adaptowalne przyspieszenie obliczeniowe układu FPGA z łącznością o niskim opóźnieniu, możesz pójść o krok dalej w komponowanym centrum danych. Możesz przypisać obciążenie wymagające dużej mocy obliczeniowej do klastra akceleratorów połączonych ze sobą za pomocą elastycznej inteligentnej struktury, tworząc na żądanie komputer o wysokiej wydajności.

Oczywiście nie jest to możliwe, jeśli nie można zaprogramować akceleratorów obliczeniowych, dysków SmartSSD i SmartNIC za pomocą optymalnych algorytmów przyspieszania, a następnie zapewnić ich odpowiednią liczbę dla każdego obciążenia. Do tego zadania stworzyliśmy kompleksowy stos oprogramowania, który wykorzystuje platformy branżowe specyficzne dla domeny, takie jak TensorFlow i FFMPEG, które współpracują z naszą platformą programistyczną Vitis. Widzimy także rolę platform udostępniania wyższego poziomu, takich jak RedFish, w pomocy w inteligentnej alokacji zasobów.

Przyszłość jest teraz

Obietnica komponowalnego centrum danych jest ekscytującą zmianą, a urządzenia Xilinx i karty akceleratorów są kluczowymi elementami tej nowej, wydajnej architektury. Dzięki szybkiej rekonfiguracji, niskim opóźnieniom i elastycznej architekturze, która może dostosować się do zmieniających się obciążeń, Xilinx ma dobrą pozycję, aby stać się głównym graczem w tej ewolucji.

Źródło: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Znak czasu:

Więcej z Xlnx