持続可能な AI/ML における CPU の役割

持続可能な AI/ML における CPU の役割

ソースノード: 3093662

広告 AI がビジネス コンピューティング環境全体にその範囲を拡大するにつれて、その影響は予期せぬ波及効果を引き起こしています。 IDCの最新情報 フューチャースケープ たとえば、このレポートは、企業が AI を強化した製品/サービスの導入や顧客の AI 実装支援を競う中、このテクノロジーがイノベーションの重要な動機になると予測しています。

もう 1 つの AI 主導の変化は、AI 開発者が望む高性能のコンピューティング機能を提供するために、データセンターが CPU と GPU や特殊なアーキテクチャなどの個別の AI アクセラレータのバランスを取る必要がある範囲に焦点を当てています。

これは、追加の CAPEX 投資と、(測定方法は不正確ですが) 一般的な GPU 駆動の AI オペレーションが従来の IT ワークロードよりも多くの電力を消費する可能性の両方の点で、データセンター所有者にとって一か八かの問題を提起する議論です。

AI のより高い電力/炭素オーバーヘッドに対処することは、データセンター運営にとってさらなる課題であり、AI に最適化されたアップグレードされたコンピューティング アーキテクチャが、既存の技術や設備に過負荷をかけるリスクを冒さずに増大する電力需要を確実に管理できるようにする必要もあります。

そのため、持続可能性ガバナンスと炭素管理における規制の拡大により、IT ハードウェアとソフトウェアの全範囲にわたってエネルギー使用量を削減する運用が推進される中、AI は機会と障害の両方を表します。

AIの消費電力を軽減する

消費電力の増加と、AI および機械学習のワークロードに対応するために必要なアーキテクチャの再構成が、データセンターにとって容赦ない課題となっていると、Intel AI Center of Excellence の人工知能 GTM ディレクターである Stephan Gillich 氏は説明します。

「AI/機械学習のアプリケーションとサービスが開発、トレーニング、実行されている場所であればどこであれ、垂直セクターや業界全体で、データ量の増加に対処するためにオンプレミスとクラウドでホストされている IT 施設の機能をアップグレードする必要があることは明らかです。 -集中的なワークロードです」とギリッヒ氏は言います。 「これらのアップグレードには、単なるコンピューティング能力の強化以上のものが必要になることも明らかです。」

AI に焦点を当てたデータセンターの持続可能性を高めるためには、AI/機械学習の状況に関するいくつかの前提条件を再評価することから始めて、できることはたくさんあると Gillich 氏は考えています。特に、CPU と GPU のどちらがタスクに適しているかを判断する場合、プロセッシング ユニットから始めるのが良いでしょう。

なぜなら、AI 特有の計算集約型のワークロードが増加しているように見える一方で (どのようなペースで起こるのかは誰にもわかりません)、データセンターの作業の大部分 (非 AI ワークロード) は毎日継続して処理され、安定したアプリケーションを提供し続ける必要があるからです。サービスの収益源が妨げられないようにする必要があります。

現在、これらのほとんどは CPU によって処理されており、標準的なデータセンターをより高価な GPU に再装備することは、非常に多くの施設にとって要件を満たさないことになります。一般的に、同様のタスクを実行する場合、GPU は CPU よりも多くのワット数を消費します。特定のラック構成への電源に応じて、GPU をデータセンター インフラストラクチャに統合するには、たとえば配電システムのアップグレードが必要ですが、稼働後のエネルギー料金に加えて、追加の初期費用が発生することは必至です。

さらに、インテルの CPU 開発は革新を続けています。複数のユースケースにおいて、CPU は GPU と同等、場合によってはそれ以上の全体的なパフォーマンスを達成できることが証明できると Gillich 氏は主張します。また、そのパフォーマンスは、第 4 世代インテル Xeon CPU に組み込まれたアクセラレーターであるインテル® AMX (Advanced Matrix Extensions) などの画期的なテクノロジーによって強化できます。

「インテル Xeon プロセッサーを使用すると、機械学習、トレーニング、推論の CPU パフォーマンスを向上させる組み込みの AI アクセラレーションを通じて、データセンターの AI 導入を拡張できます」と Gillich 氏は指摘します。 「これにより、既存の Intel Xeon 処理環境を活用しながら、個別のアクセラレータを採用して設備投資を最小限に抑え、パフォーマンスを最大化することができます。」

AI ワークロードと非 AI ワークロードを混在させる必要がある

Intel AMX は、Intel Xeon スケーラブル プロセッサ コア上の専用ハードウェア ブロックで、AI ワークロードを個別のアクセラレータにオフロードするのではなく CPU 上で実行できるようにし、パフォーマンスを大幅に向上させます。これは、行列数学に依存する機械学習レコメンダー システム、画像認識、自然言語処理などの AI ワークロードに適しています。

増強された CPU を支持するもう 1 つの議論は、増強された CPU は、データセンター事業者が既存の CPU コミットメントをさらに活用し、資産の将来性を確保して混合ワークロードを処理できるようにし、より良い状況に置くための費用対効果の高いルートを提供するというものです。全体的な電力使用量を制御します。

これは、データセンター サービスのプロバイダー (およびその顧客) が持続可能性目標を達成するのに役立ち、コーディングのエネルギー効率を示すための最適化されたプラットフォームを探しているソフトウェア開発者 (企業またはサードパーティ) にセールス ポイントを提供する可能性があります。出力。

「現実には、データセンター事業者は、AI ワークロードが約束する可能性のある機会に飛びつくのではなく、技術的な選択と同じくらい商業上の懸念も踏まえたさまざまな緊急事項を考慮する必要があることに気づきつつあります」と Gillich 氏は言います。

これらの必須事項には、AI ワークロードと非 AI ワークロードの統合が含まれます。さまざまなハードウェアとソフトウェア スタックの統合。また、複数の異なるワークロード、異なるワークストリーム タイプの統合に適したアーキテクチャを確保したいと考えているためです。

「これらの質問は、複雑な課題を示しています。なぜなら、これらの質問を正しく解決することは、最適な技術効率とエネルギー効率に関係するからです。エネルギー効率は今や、データセンターの商業的実行可能性にますます影響を与える中核的なパフォーマンスベンチマークとなっています」とギリッヒ氏は言います。 「繰り返しになりますが、それは非常に重要です。」

ギリッヒ氏の観点から見ると、この新たな現実に適応するための鍵は、「AI 同化」と呼ぶことができる段階的なプロセスです。ここでのポイント 1 は、AI ワークロードが他の種類のワークロードから分離されていないことです。AI ワークロードは個別に実行されるのではなく、従来のワークロードに統合されます。

Gillich 氏は、この段階的統合の例としてビデオ会議を挙げています。「すでに、標準アプリケーション間で標準オーディオ/ビデオ トラフィックをストリーミングしながら、要約、翻訳、文字起こしなどの付随タスクを実行するために AI が統合されています。このような機能は AI によって非常によくサポートされています。

エンドツーエンドのエネルギー節約

エネルギー効率の達成は、真にエンドツーエンドの戦略的取り組みでなければならない、とギリッヒ氏は主張する。 「これは、特定のワークフロー プロセスを可能にする完全なメカニズムであるハードウェア アーキテクチャだけでなくソフトウェア側にも及びます。アクセスを最も効率的にするために、つまりコンピューティングの観点から、したがってエネルギーの観点から、データはどこに保存されているのでしょうか? それはエネルギー効率にとって最適な場所でしょうか?」

この評価に考慮すべきもう 1 つの要素は、ワークロードがどこで実行されているかを判断することです。たとえば、データセンター内のサーバーではなく、クライアント (Intel Core Ultra プロセッサを搭載した AI PC など) で実行されていますか? これらの AI ワークロードの一部は実際にクライアント (サーバーと並行して) で実行できますか?

AI コンピューティングと電力消費のバランスをより適切に調整するのに役立つのであれば、あらゆる選択肢は検討に値します。「それは分散コンピューティングという昔ながらの概念に戻るようなものです。」と Gillich 氏は主張します。

Gillich 氏は次のように付け加えています。「お客様から『AI はどこで活躍するのですか?』と尋ねられることがあります。 – その答えは、AI があらゆる場所で活躍するということです。したがって、インテルでは、AI があらゆるアプリケーション分野に参入すると信じているため、AI の普遍的な対応と呼ぶべきものに私たちの野心は焦点を当てています。」

インテルでは、これには API などのミドルウェアが含まれますが、ソフトウェア スタックの他の部分と同様に、可能な限り効率的である必要があります。 「API のスプロール」により、不必要な処理が発生し、インフラストラクチャのフットプリントが最小限に抑えられ、監視と制御が不足する可能性があります。

「付き インテル oneAPI企業はハードウェアの価値を最大限に実現し、高性能のクロスアーキテクチャ コードを開発し、アプリケーションを将来のニーズに対応できるようにすることができます」と Gillich 氏は説明します。

「Intel oneAPI は、オープンで業界を超えた標準ベースの統合されたマルチアーキテクチャ、マルチベンダーのプログラミング モデルであり、アクセラレータ アーキテクチャ全体で共通の開発者エクスペリエンスを提供し、アプリケーションのパフォーマンスの高速化と生産性の向上を実現します。 oneAPI イニシアチブは、エコシステム全体での oneAPI 仕様および互換性のある oneAPI 実装に関するコラボレーションを促進します。」

Gillich 氏は次のように付け加えています。「oneAPI は、Pytorch や TensorFlow (AI および機械学習用のオープンソース ソフトウェア プラットフォーム) などの AI フレームワークのような標準的なものを取得し、それらをマシン レベルで変換するミドルウェア スタックを提供します。また、oneAPI は、それを行う。ユーザーは Ai フレームワーク レベルで共通の API を使用でき、さまざまなハードウェア フレーバーに対応する API (oneAPI) が用意されています。」つまり、共通 API とは、ユーザーがオープン ソフトウェア スタックでサポートできるオープン ソフトウェアを作成できることを意味します。

CPU レベルの価格帯で GPU レベルのパフォーマンスを実現

IT の進歩は主に、導入戦略における洞察に基づく改善に伴う継続的な技術進歩への期待によって推進されています。これは、予算支出とビジネス ROI の間で達成可能な最良のバランスを見つけることと、常にさらなる革新を目指すべきであるという期待に基づいたモデルです。 AI はこの理想の頂点を表しており、絶え間ない自己改善を通じて独自の価値提案を再発明できるほど賢いのです。

Intel は、AMX アクセラレータを第 4 世代 Intel Xeon CPU に組み込むことで、CPU レベルの価格帯で GPU レベルのパフォーマンスをどのように実現できるかを示しています。これにより、データセンターは、既存の Intel Xeon を搭載した処理資産の収益を最大化しながら拡張できるようになります。また、予算が限られているものの、AI ワークロードを持つ顧客にとって、導入コストを下げる価格モデルも提供されます。

また、CPU の消費電力が低いということは、冷却や換気などのデータセンター施設の運用全体を通じて総合的にエネルギー効率を達成できることを意味しており、それが持続可能性を重視するソフトウェア アーキテクトや AL ソリューションの開発者にとってのもう 1 つの魅力となります。

インテルからの寄稿。

タイムスタンプ:

より多くの 登録