Die Zukunft des adaptiven Rechnens: Das Composable Data Center

Quellknoten: 805091

AdobeStock_267083342 (002) .jpeg

Dieser Blog-Beitrag ist ein Auszug aus der Keynote-Präsentation von Salil Raje, EVP und GM Xilinx Data Center Group am 24. März 2021 im Xilinx Adapt: ​​Data Center. Sie können Salils Keynote auf Abruf zusammen mit einer großen Auswahl an Präsentationen von Branchenexperten sehen Registrieren Sie sich und sehen Sie sich den Inhalt hier an.

Die meisten von uns treffen sich nach dem durch die COVID-19-Pandemie verursachten Paradigmenwechsel immer noch per Online-Videokonferenz mit ihren Mitarbeitern. Sie denken wahrscheinlich nicht viel darüber nach, was erforderlich ist, um alle Inhalte und Feeds aus Ihren Besprechungen zu streamen. Aber wenn Sie ein Rechenzentrumsbetreiber sind, haben Sie im letzten Jahr wahrscheinlich nicht viel Schlaf bekommen und sich Gedanken darüber gemacht, wie Sie mit dem beispiellosen Anstieg der Pandemie im Videoverkehr umgehen sollen.

Darüber hinaus müssen Rechenzentren heutzutage mit einer Explosion unstrukturierter Daten aus einer Vielzahl von Workloads wie Videokonferenzen, Streaming-Inhalten, Online-Spielen und E-Commerce umgehen. Viele dieser Anwendungen reagieren sehr empfindlich auf Latenz und unterliegen auch ständig weiterentwickelten Standards für Komprimierung, Verschlüsselung und Datenbankarchitekturen.

Dies hat Rechenzentren gezwungen, ihre Infrastruktur zu skalieren, um die Leistungs- und Latenzanforderungen einer Vielzahl anspruchsvoller Workloads zu erfüllen und gleichzeitig zu versuchen, Kosten und Stromverbrauch zu minimieren. Dies erweist sich als sehr schwierig und zwingt Rechenzentrumsbetreiber dazu, ihre aktuelle Architektur zu überdenken und neue Konfigurationen zu erkunden, die von Natur aus skalierbarer und effizienter sind.

Derzeit verfügen die meisten Rechenzentren über Racks mit festen Ressourcen, die SSDs, CPUs und Beschleuniger auf einem einzigen Server kombinieren. Dies stellt zwar eine Verbindung mit hoher Bandbreite zwischen Computer und Speicher sicher, ist jedoch hinsichtlich der Ressourcennutzung sehr ineffizient, da auf jedem Server ein festes Verhältnis von Speicher und Computer vorhanden ist. Da Workloads eine andere Mischung aus Rechenleistung und Speicher erfordern, verbleiben auf jedem Server Inseln nicht verwendeter Ressourcen.

Zusammensetzbare Infrastruktur

Es entsteht eine neue Architektur, die eine dramatische Verbesserung der Ressourcennutzung verspricht. Es ist als "zusammensetzbare Infrastruktur" bekannt. Zusammensetzbare Infrastruktur beinhaltet Entkopplung Ressourcen und bündeln sie stattdessen und machen sie von überall zugänglich. Zusammensetzbare Infrastrukturen ermöglichen die Bereitstellung von Workloads mit genau der richtigen Menge an Ressourcen und eine schnelle Neukonfiguration über Software.

Eine zusammensetzbare Architektur mit Pools von CPUs, SSDS und Beschleunigern, die miteinander vernetzt sind und von einem standardbasierten Bereitstellungsframework gesteuert werden, verspricht eine erheblich verbesserte Ressourceneffizienz im Rechenzentrum. In einer solchen Architektur können unterschiedliche Workloads unterschiedliche Rechen-, Speicher- und Beschleunigungsanforderungen haben, und diese Ressourcen werden ohne verschwendete Hardware entsprechend zugewiesen. Das klingt theoretisch alles gut, aber in der Praxis gibt es ein großes Problem: die Latenz.

Die Latenz-Herausforderung

Wenn Sie Ressourcen disaggregieren und weiter auseinander bewegen, treten aufgrund des Netzwerkverkehrs zwischen CPUs und SSDs oder zwischen CPUs und Beschleunigern mehr Verzögerungen und eine geringere Bandbreite auf. Dies kann eine erhebliche Einschränkung darstellen, es sei denn, Sie haben eine Möglichkeit, den Netzwerkverkehr zu reduzieren und die Ressourcen auf effiziente Weise miteinander zu verbinden. Hier spielen FPGAs drei wichtige Rollen bei der Lösung der Latenzherausforderung:

  • FPGAs fungieren als anpassbare Beschleuniger, die für maximale Leistung an jede Arbeitslast angepasst werden können. 
  • FPGAs können auch die Datenverarbeitung näher an die Daten bringen, wodurch die Latenz verringert und die erforderliche Bandbreite minimiert wird.
  • Die anpassungsfähige, intelligente Struktur von FPGAs ermöglicht eine effiziente Bündelung von Ressourcen ohne übermäßige Verzögerungen. 

Anpassbare Beschleunigung

Der erste wesentliche Vorteil für FPGA-basierte Rechenbeschleuniger ist die dramatisch verbesserte Leistung für Workloads, die heutzutage stark nachgefragt werden. In Anwendungsfällen für die Videotranscodierung für Live-Streaming-Anwendungen übertreffen FPGA-Lösungen x86-CPUs in der Regel um das 30-fache, was den Betreibern von Rechenzentren hilft, die enorme Zunahme der Anzahl gleichzeitiger Streams zu bewältigen. Ein weiteres Beispiel liegt im kritischen Bereich der Genomsequenzierung. Ein kürzlich von Xilinx Genomics tätiger Kunde stellte fest, dass unser FPGA-basierter Beschleuniger die Antwort 90-mal schneller als eine CPU lieferte und medizinischen Forschern dabei half, DNA-Proben in einem Bruchteil der Zeit zu testen, die sie einmal brauchten.

Verschieben von Compute näher an Daten

Der zweite entscheidende Vorteil für FPGAs in einem zusammensetzbaren Rechenzentrum ist die Möglichkeit, anpassbare Berechnungen in Ruhe oder in Bewegung in die Nähe der Daten zu bringen. Xilinx-FPGAs, die in SmartSSD-Computerspeichern verwendet werden, beschleunigen Funktionen wie Hochgeschwindigkeitssuche, Analyse, Komprimierung und Verschlüsselung, die normalerweise von einer CPU ausgeführt werden. Dies hilft, die CPU für komplexere Aufgaben zu entlasten, reduziert aber auch den Datenverkehr zwischen der CPU und den SSDs, wodurch der Bandbreitenverbrauch verringert und die Latenz verringert wird.

In ähnlicher Weise werden unsere FPGAs jetzt in SmartNICs wie unserem neuen Alveo SN1000 verwendet, um Daten in Bewegung zu beschleunigen, und zwar mit Paketverarbeitungs-, Komprimierungs- und Kryptodiensten mit Drahtgeschwindigkeit sowie der Möglichkeit, sich an benutzerdefinierte Switching-Anforderungen für ein bestimmtes Rechenzentrum oder einen bestimmten Kunden anzupassen.   

Intelligenter Stoff

Wenn Sie die anpassbare Rechenbeschleunigung eines FPGA mit Konnektivität mit geringer Latenz kombinieren, können Sie im zusammensetzbaren Rechenzentrum einen Schritt weiter gehen. Sie können einem Cluster von Beschleunigern, die durch eine anpassungsfähige intelligente Struktur miteinander verbunden sind, eine rechenintensive Arbeitslast zuweisen und so bei Bedarf einen Hochleistungscomputer erstellen.

Dies ist natürlich nicht möglich, wenn Sie die Rechenbeschleuniger, SmartSSDs und SmartNICs nicht mit den optimalen Beschleunigungsalgorithmen programmieren und sie dann für jede Arbeitslast in den richtigen Zahlen bereitstellen können. Für diese Aufgabe haben wir einen umfassenden Software-Stack erstellt, der domänenspezifische Branchen-Frameworks wie TensorFlow und FFMPEG nutzt, die in Verbindung mit unserer Vitis-Entwicklungsplattform funktionieren. Wir sehen auch eine Rolle für übergeordnete Bereitstellungs-Frameworks wie RedFish, um bei der intelligenten Ressourcenzuweisung zu helfen.

Die Zukunft ist jetzt

Das Versprechen des zusammensetzbaren Rechenzentrums ist eine aufregende Veränderung, und Xilinx-Geräte und Beschleunigerkarten sind wichtige Bausteine ​​für diese neue effiziente Architektur. Mit schneller Rekonfigurierbarkeit, geringer Latenz und einer flexiblen Architektur, die sich an sich ändernde Workloads anpassen kann, ist Xilinx gut positioniert, um ein wichtiger Akteur in dieser Entwicklung zu sein.

Quelle: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Zeitstempel: