Le rôle du CPU dans une IA/ML durable

Le rôle du CPU dans une IA/ML durable

Nœud source: 3093662

Advertorial À mesure que l’IA étend sa portée aux environnements informatiques des entreprises, son impact entraîne des répercussions imprévues. Le dernier d'IDC FuturScape Le rapport, par exemple, prédit qu'à mesure que les entreprises s'empressent d'introduire des produits/services améliorés par l'IA et d'aider leurs clients dans la mise en œuvre de l'IA, la technologie deviendra un facteur de motivation clé pour l'innovation.

Un autre changement induit par l'IA concerne la mesure dans laquelle les centres de données doivent équilibrer les processeurs avec des accélérateurs d'IA discrets, tels que des GPU ou des architectures spécialisées, afin de fournir les capacités de calcul hautes performances souhaitées par les développeurs d'IA.

Il s'agit d'un débat qui soulève des enjeux importants pour les propriétaires de centres de données, à la fois en termes d'investissements CAPEX supplémentaires et de probabilité que (bien que les méthodes de mesure soient imprécises) les opérations d'IA typiques basées sur GPU consomment plus d'énergie que les charges de travail informatiques conventionnelles.

Faire face aux coûts énergétiques et carbone plus élevés de l'IA constitue un problème supplémentaire pour les opérations des centres de données, qui doivent également garantir que les architectures de calcul mises à niveau et optimisées pour l'IA peuvent gérer les demandes d'énergie accrues sans risquer de surcharger la technologie ou les installations existantes.

Ainsi, alors que la réglementation étendue en matière de gouvernance durable et de gestion du carbone pousse les opérations à réduire la consommation d’énergie dans toute la gamme du matériel et des logiciels informatiques, l’IA représente à la fois une opportunité et un obstacle.

Atténuer la consommation d’énergie de l’IA

Ensemble, l'augmentation de la consommation d'énergie et les reconfigurations architecturales nécessaires pour s'adapter aux charges de travail d'IA et d'apprentissage automatique posent un défi inexorable pour les centres de données, explique Stephan Gillich, directeur de l'intelligence artificielle GTM au centre d'excellence en IA d'Intel.

« Il est assez clair dans les secteurs verticaux et les industries, partout où des applications et des services d'IA/Machine Learning sont développés, formés et exécutés, que les capacités des installations informatiques sur site et hébergées dans le cloud devront subir des mises à niveau pour faire face à des volumes croissants de données. -des charges de travail intensives », explique Gillich. « Il est également clair que ces mises à niveau devront impliquer plus qu’une simple augmentation des capacités de calcul. »

Selon Gillich, beaucoup peut être fait pour améliorer la durabilité des centres de données axés sur l’IA, en commençant par réévaluer certaines hypothèses concernant le paysage de l’IA et de l’apprentissage automatique. Les unités de traitement sont un bon point de départ, en particulier pour décider si les CPU ou les GPU sont mieux adaptés à la tâche.

Parce que même si les charges de travail gourmandes en calcul spécifiques à l'IA semblent augmenter (personne ne sait vraiment à quel rythme), la majeure partie du travail du centre de données (les charges de travail non liées à l'IA) doit continuer à s'alourdir jour après jour – fournissant des applications stables. et les flux de revenus des services ne doivent pas être perturbés.

La plupart d'entre eux sont actuellement gérés par des processeurs et la réinstallation d'un centre de données standard avec des GPU plus coûteux serait, pour de très nombreuses installations, excédentaire par rapport aux besoins. De manière générale, un GPU consomme plus de puissance qu’un CPU pour effectuer une tâche similaire. En fonction de l'alimentation électrique d'une configuration de rack donnée, l'intégration de GPU dans l'infrastructure du centre de données nécessite par exemple des mises à niveau des systèmes de distribution d'énergie, qui entraîneront forcément des coûts initiaux supplémentaires, en plus des factures d'énergie plus élevées une fois qu'ils seront en fonctionnement.

De plus, le développement des processeurs Intel continue d'innover. Dans de nombreux cas d’utilisation, il peut être prouvé qu’un processeur atteint des performances globales aussi bonnes – et parfois meilleures – qu’un GPU, affirme Gillich. Et leurs performances peuvent être augmentées grâce à des technologies révolutionnaires telles que l'Intel® AMX (Advanced Matrix Extensions), un accélérateur intégré aux processeurs Intel Xeon de 4e génération.

« Les processeurs Intel Xeon peuvent permettre à un centre de données d'étendre son adoption de l'IA grâce à une accélération de l'IA intégrée qui améliore les performances du processeur pour l'apprentissage automatique, la formation et l'inférence », souligne Gillich. « De cette façon, ils peuvent adopter des accélérateurs discrets pour minimiser les CAPEX et maximiser les performances tout en tirant parti des environnements de traitement Intel Xeon existants. »

Nécessité de mélanger les charges de travail IA et non-IA

Intel AMX est un bloc matériel dédié sur le cœur du processeur Intel Xeon Scalable qui permet aux charges de travail d'IA de s'exécuter sur le processeur au lieu de les décharger sur un accélérateur discret, offrant ainsi une amélioration significative des performances. Il est adapté aux charges de travail d'IA telles que les systèmes de recommandation d'apprentissage automatique, la reconnaissance d'images et le traitement du langage naturel, qui reposent sur les mathématiques matricielles.

Un autre argument en faveur des processeurs augmentés est qu'ils offrent aux opérateurs de centres de données un moyen rentable de tirer davantage parti des engagements existants en matière de processeurs, de pérenniser leurs actifs afin qu'ils soient en mesure de prendre en charge des charges de travail mixtes et de les placer dans une meilleure position. contrôler la consommation globale d’énergie.

Ceci, à son tour, peut aider les fournisseurs de services de centres de données (et leurs clients) à atteindre leurs objectifs de durabilité et constitue un argument de vente pour les développeurs de logiciels (entreprises ou tiers) qui recherchent une plate-forme optimisée pour mettre en valeur l'efficacité énergétique de leur codage. les sorties.

« La réalité est que, plutôt que de se précipiter sur les opportunités que les charges de travail de l’IA peuvent promettre, les opérateurs de centres de données se rendent compte qu’ils devraient prendre en compte une série d’impératifs qui sont autant influencés par des préoccupations commerciales que par des choix technologiques », explique Gillich.

Ces impératifs pourraient inclure : l’intégration des charges de travail d’IA avec des charges de travail non-IA ; l'intégration de différentes piles matérielles et logicielles ; et parce qu'ils veulent s'assurer qu'ils disposent d'une architecture adaptée à plusieurs charges de travail différentes, l'intégration de différents types de flux de travail.

« Ces questions mettent en évidence des défis complexes, car les résoudre correctement a une incidence sur une efficacité technologique et énergétique optimale – l'efficacité énergétique étant désormais une référence de performance essentielle qui affectera de plus en plus la viabilité commerciale d'un centre de données », explique Gillich. " Encore une fois, c'est de la plus haute importance. "

Du point de vue de Gillich, la clé pour s'adapter à cette réalité émergente est un processus par étapes de ce que l'on peut appeler « l'assimilation de l'IA ». Le premier point ici est que les charges de travail d’IA ne sont pas séparées des autres types de charges de travail : elles seront intégrées aux charges de travail conventionnelles, plutôt que exécutées séparément.

Gillich donne la visioconférence comme exemple de cette intégration progressive : « Déjà, lors de la diffusion du trafic audio/vidéo standard à travers des applications standard, l'IA est intégrée pour effectuer des tâches concomitantes telles que le résumé, la traduction, la transcription. Ces fonctionnalités sont très bien prises en charge par l’IA.

Des économies d'énergie de bout en bout

Atteindre l’efficacité énergétique doit être une véritable entreprise stratégique de bout en bout, affirme Gillich. « Cela couvre le côté logiciel ainsi que les architectures matérielles – le mécanisme complet permettant un processus de flux de travail donné. Où les données sont-elles stockées pour rendre l’accès le plus efficace – en termes de calcul et donc en termes d’énergie – est-ce le meilleur endroit pour l’efficacité énergétique ? »

L’autre facteur à prendre en compte dans cette évaluation est de déterminer où s’exécute la charge de travail. Par exemple, s'exécute-t-il sur des clients (tels qu'un PC AI équipé de processeurs Intel Core Ultra, plutôt que sur des serveurs du centre de données ? Certaines de ces charges de travail d'IA peuvent-elles réellement être exécutées sur des clients (à côté des serveurs) ?

Chaque option mérite d'être prise en considération si elle doit contribuer à mieux aligner l'équilibre entre l'IA, le calcul et la consommation d'énergie, affirme Gillich : « C'est presque comme un retour à la notion à l'ancienne de l'informatique distribuée. »

Gillich ajoute : « Parfois, nos clients demandent : « Où va jouer l'IA ? – la réponse est que l’IA jouera partout. Chez Intel, notre ambition se concentre donc sur ce que l’on pourrait appeler l’adaptation universelle de l’IA, car nous pensons qu’elle entrera dans tous les domaines d’application.

Chez Intel, cela englobe les middlewares tels que les API, qui, comme toute autre partie de la pile logicielle, doivent être aussi efficaces que possible. La « prolifération des API » peut entraîner un traitement inutile, minimisant l'empreinte de leur infrastructure, ainsi qu'un manque de surveillance et de contrôle.

"Avec Intel OneAPI, les entreprises peuvent exploiter pleinement la valeur de leur matériel, développer du code multi-architecture hautes performances et préparer leurs applications aux besoins futurs », explique Gillich.

« Intel oneAPI est un modèle de programmation ouvert, intersectoriel, basé sur des normes, unifié, multiarchitecture et multifournisseur qui offre une expérience de développement commune à travers les architectures d'accélérateurs – pour des performances applicatives plus rapides et une productivité améliorée. L’initiative oneAPI encourage la collaboration sur la spécification oneAPI et les implémentations oneAPI compatibles à travers l’écosystème.

Gillich ajoute : « oneAPI fournit une pile middleware qui prend des éléments standard tels que les frameworks d'IA – comme Pytorch ou TensorFlow [la plateforme logicielle open source pour l'IA et l'apprentissage automatique] – et les traduit au niveau de la machine, et oneAPI permet un moyen efficace de fais ça. Les utilisateurs peuvent utiliser une API commune au niveau du framework Ai, et nous disposons d'une API (oneAPI) qui s'adresse aux différentes versions de matériel. Ainsi, une API commune signifie que les utilisateurs peuvent créer des logiciels ouverts pouvant être pris en charge sur une pile logicielle ouverte.

Performances au niveau du GPU au niveau du prix du CPU

Les progrès en informatique reposent en grande partie sur l’attente d’avancées technologiques continues alliées à des améliorations fondées sur la connaissance des stratégies de déploiement. Il s'agit d'un modèle basé sur la recherche du meilleur équilibre possible entre les dépenses budgétaires et le retour sur investissement de l'entreprise, et sur l'attente d'une innovation toujours plus poussée. L'IA représente l'apogée de cet idéal : elle est suffisamment intelligente pour réinventer sa propre proposition de valeur grâce à une auto-amélioration perpétuelle.

En intégrant l'accélérateur AMX dans ses processeurs Intel Xeon de 4e génération, Intel montre comment les performances au niveau du GPU peuvent être obtenues aux niveaux de prix du processeur. Cela permet aux centres de données d'évoluer tout en maximisant la valeur de retour de leurs parcs de traitement Intel Xeon existants, mais fournit également un modèle de tarification qui réduit le coût d'entrée pour les clients ayant des charges de travail d'IA mais des budgets limités.

Et la faible consommation d'énergie des processeurs signifie que l'efficacité énergétique peut être atteinte de manière globale dans l'ensemble des opérations d'un centre de données, telles que le refroidissement et la ventilation, ce qui constitue un autre atout gagnant pour les architectes logiciels et les développeurs de solutions AL soucieux du développement durable.

Contribution d'Intel.

Horodatage:

Plus de Le registre