L'avenir de l'informatique adaptative: le centre de données composable

Nœud source: 805091

AdobeStock_267083342 (002) .jpeg

Cet article de blog est extrait de la présentation liminaire de Salil Raje, EVP et GM Xilinx Data Center Group, donnée le 24 mars 2021, à Xilinx Adapt: ​​Data Center. Pour voir le discours d'ouverture de Salil à la demande, ainsi qu'une grande sélection de présentations par des experts du secteur, vous pouvez inscrivez-vous et consultez le contenu ici.

La plupart d'entre nous rencontrons toujours nos collègues par vidéoconférence en ligne après le changement de paradigme causé par la pandémie COVID-19. Vous ne pensez probablement pas beaucoup à ce qu'il faut pour diffuser tout le contenu et les flux de vos réunions. Mais si vous êtes un opérateur de centre de données, vous n'avez probablement pas beaucoup dormi au cours de la dernière année, vous vous inquiétez de la façon de gérer la flambée pandémique sans précédent du trafic vidéo.

Non seulement cela, mais les centres de données de nos jours doivent gérer une explosion de données non structurées provenant d'un large éventail de charges de travail telles que la vidéoconférence, le contenu en streaming, les jeux en ligne et le commerce électronique. Beaucoup de ces applications sont très sensibles à la latence et sont également soumises à des normes en constante évolution en matière d'architecture de compression, de chiffrement et de base de données.

Cela a obligé les centres de données à étendre leur infrastructure pour répondre aux exigences de performances et de latence d'une variété de charges de travail exigeantes, tout en essayant de minimiser les coûts et la consommation d'énergie. Cela s'avère très difficile et oblige les opérateurs de centres de données à repenser leur architecture actuelle et à explorer de nouvelles configurations intrinsèquement plus évolutives et efficaces.

Actuellement, la plupart des centres de données disposent de racks avec des ensembles fixes de ressources, combinant des disques SSD, des processeurs et des accélérateurs dans un seul serveur. Bien que cela garantisse une connexion à bande passante élevée entre le calcul et le stockage, il est très inefficace en termes d'utilisation des ressources, car il existe un ratio fixe de stockage et de calcul dans chaque serveur. Les charges de travail nécessitant une combinaison différente de calcul et de stockage, des îlots de ressources inutilisées sont laissés sur chaque serveur.

Infrastructure composable

Une nouvelle architecture émerge qui promet d'améliorer considérablement l'utilisation des ressources. C'est ce qu'on appelle une «infrastructure composable». L'infrastructure composable implique découplage ressources et au lieu de les mettre en commun et les rendre accessibles de n'importe où. Les infrastructures composables permettent le provisionnement des charges de travail avec juste la bonne quantité de ressources et une reconfiguration rapide via logiciel.

Une architecture composable avec des pools de processeurs, de SSDS et d'accélérateurs qui sont mis en réseau et contrôlés par un cadre de provisionnement normalisé promet une efficacité considérablement améliorée des ressources du centre de données. Dans une telle architecture, différentes charges de travail peuvent avoir des exigences de calcul, de stockage et d'accélération différentes, et ces ressources seront affectées en conséquence sans gaspillage de matériel. Tout cela semble bien en théorie, mais en pratique, il y a un gros problème: la latence.

Le défi de la latence

Lorsque vous désagrège les ressources et les éloigne les unes des autres, vous subissez plus de retards et une bande passante réduite en raison du trafic réseau entre les processeurs et les disques SSD, ou entre les processeurs et les accélérateurs. À moins que vous ne disposiez d'un moyen de réduire le trafic réseau et d'interconnecter les ressources de manière efficace, cela peut être très restrictif. C'est là que les FPGA jouent trois rôles majeurs dans la résolution du problème de latence:

  • Les FPGA agissent comme des accélérateurs adaptables qui peuvent être personnalisés pour chaque charge de travail pour des performances maximales. 
  • Les FPGA peuvent également rapprocher le calcul des données, réduisant ainsi la latence et minimisant la bande passante requise.
  • La structure adaptable et intelligente des FPGA permet une mise en commun efficace des ressources sans entraîner de retards excessifs. 

Accélération adaptable

Le premier avantage significatif des accélérateurs de calcul basés sur FPGA est une amélioration spectaculaire des performances pour les charges de travail très demandées de nos jours. Dans les cas d'utilisation du transcodage vidéo pour les applications de streaming en direct, les solutions FPGA surpassent généralement les processeurs x86 de 30x, ce qui aide les opérateurs de centres de données à faire face à l'augmentation considérable du nombre de flux simultanés. Un autre exemple est dans le domaine critique du séquençage génomique. Un client récent de Xilinx Genomics a découvert que notre accélérateur basé sur FPGA fournissait la réponse 90 fois plus rapidement qu'un processeur, aidant les chercheurs médicaux à tester des échantillons d'ADN en une fraction du temps qu'il prenait autrefois.

Rapprocher le calcul des données

Le deuxième avantage clé des FPGA dans un centre de données composable est la possibilité de rapprocher le calcul adaptable des données, que ce soit au repos ou en mouvement. Les FPGA Xilinx utilisés dans les périphériques de stockage de calcul SmartSSD accélèrent des fonctions telles que la recherche à grande vitesse, l'analyse, la compression et le cryptage, qui sont généralement effectuées par un processeur. Cela permet de décharger le processeur pour des tâches plus complexes, mais réduit également le trafic entre le processeur et les disques SSD, réduisant ainsi la consommation de bande passante et la latence.

De même, nos FPGA sont désormais utilisés dans les SmartNIC comme notre nouvel Alveo SN1000 pour accélérer les données en mouvement avec des services de traitement, de compression et de cryptographie de paquets à vitesse filaire, ainsi que la possibilité de s'adapter aux exigences de commutation personnalisées pour un centre de données ou un client particulier.   

Tissu intelligent

Lorsque vous combinez l’accélération de calcul adaptable d’un FPGA avec une connectivité à faible latence, vous pouvez aller plus loin dans le centre de données composable. Vous pouvez attribuer une charge de travail lourde en calcul à un cluster d'accélérateurs interconnectés par une structure intelligente adaptable, créant ainsi un ordinateur hautes performances à la demande.

Bien sûr, rien de tout cela n'est possible si vous ne pouvez pas programmer les accélérateurs de calcul, les SmartSSD et les SmartNIC avec les algorithmes d'accélération optimaux, puis les provisionner dans les bons nombres pour chaque charge de travail. Pour cette tâche, nous avons construit une pile logicielle complète qui exploite des cadres sectoriels spécifiques à un domaine tels que TensorFlow et FFMPEG, qui fonctionnent en conjonction avec notre plate-forme de développement Vitis. Nous voyons également un rôle pour les cadres de provisionnement de niveau supérieur comme RedFish pour aider à l'allocation intelligente des ressources.

Le futur c'est maintenant

La promesse du centre de données composable est un changement passionnant et les périphériques Xilinx et les cartes accélératrices sont les éléments clés de cette nouvelle architecture efficace. Avec une reconfigurabilité rapide, une faible latence et une architecture flexible qui peut s'adapter à l'évolution des charges de travail, Xilinx est bien placé pour être un acteur majeur de cette évolution.

Source : https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Horodatage:

Plus de Xlnx