デルとエヌビディアは、DIY 生成 AI モデルを夢見ています

デルとエヌビディアは、DIY 生成 AI モデルを夢見ています

ソースノード: 2674711

デルワールド デルは、OpenAI の GPT などの汎用大規模言語モデル (LLM) で使用される公開情報ではなく、自社の企業データに基づいてトレーニングされた生成 AI モデルを構築するツールを企業に売り込むために Nvidia と提携しました。

提案の鍵となるのはデータのセキュリティです。 Nvidia のエンタープライズ コンピューティング担当バイスプレジデント、マヌビル ダス氏はジャーナリストに対し、独自のドメイン固有データに基づいてトレーニングされた独自の生成 AI を構築する企業は、「自社の独自データが、期間中に他の企業の独自データと混合されることを心配する必要はありません」と語った。トレーニング。"

Project Helix は、Nvidia と Dell が火曜日の Dell Technologies World 2023 で立ち上げたスキームで、以下が含まれます。 パワーエッジ XE9680 AI トレーニングと推論ワークロード向けに最適化された R760xa ラック サーバー。 XE9680 は、Intel の第 4 世代 Xeon スケーラブル プロセッサを XNUMX つ搭載していますが、Nvidia の最新のプロセッサも XNUMX つ搭載しています。 H100 Tensor Core GPUs Nvidia の NVLink ネットワーク経由で接続されます。

Nvidia は、NeMo や事前トレーニングされた基盤モデルを含む AI エンタープライズ ソフトウェア、フレームワーク、開発者ツールを活用することも計画しています。 NeMo ガードレール – 安全な生成型 AI チャットボットを構築します。 Dellの非構造化データ向けPowerScaleおよびECS Enterprise Object StorageシステムはPowerEdgeラックサーバーで使用できるという。

「これらすべてにより、オンプレミスで実行でき、ハードウェアとソフトウェアで完全に検証され、安全でプライベートな生成 AI の完全なソリューションをまとめることができます」と Das 氏は述べています。

ハイリスクな人生

トレーニングと推論のワークロードを企業独自のデータセンター内で実行することは、重要な企業データがパブリック ドメインに流出することを防ぐ鍵となります。 違反している Huang 氏によると、プライバシーとセキュリティに関する規制です。 生成 AI の場合、オンプレミスがエッジを意味するようになるでしょう。

「データがそこにあるため、オンプレミスで実行する必要があり、光の速度に最も近いエッジ近くで実行する必要がある」とフアン氏は述べた。 「瞬時に応答する必要があります。 また、将来的には複数のモダリティからの情報を取得する必要があるため、エッジに配置する必要もあります。

「より多くのコンテキスト情報を取得すればするほど、より正確な推論を行うことができます。 これらの意思決定を、アクションが行われる場所、すべてのデータが存在する場所、そして応答性が可能な限り高いエッジにできる限り近い場所で行う能力は、非常に重要です。」

XNUMX 年ほど前、AI が将来の成長エンジンになることに賭けた Nvidia にとって、Project Helix は企業や HPC 組織の機械学習の主要な実現者としての地位をさらに固めるのに役立ちます。

ジェフリー・クラーク氏によると、LLM が大規模な汎用データセット (GPT とその上に構築された ChatGPT ボットの場合、インターネット) でトレーニングしているときに、組織は独自のデータで小規模なモデルをトレーニングして、独自の特定のニーズに対応したいと考えています、デルの副会長兼共同COO。

「それが顧客に見られる傾向です」とクラーク氏は語った。 「彼らはビジネスコンテキストやデータをどのように活用し、より良いビジネス上の意思決定を支援しているのでしょうか? これを行うには GPT の大規模言語モデルは必要ありません。 … 企業は、工場の稼働を改善するために ChatGPT を工場に導入するつもりはありません。 それは、X、Y、Z 社のデータを使用したローカライズされたモデルになります。」

より多くのコントロールを与える

企業が独自の情報を使用して独自のデータセンターでトレーニング モデルをカスタマイズできるようにする取り組みが勢いを増しています。 今月初め、ServiceNow と Nvidia パートナーシップを発表した プロジェクト・ヘリックスに似ています。 の アイデアは新しいものではない、しかし、最近の生成 AI と LLM の開発の加速により、それはさらに強化されています。

2022 年 XNUMX 月の GTC で、Nvidia はこれを念頭に置いて NeMo LLM サービスを開始し、企業が事前トレーニングされたさまざまな基礎モデルを適応させて、独自のデータでトレーニングされたカスタマイズされたモデルを作成する方法を提供しました。

OpenAI の GPT-4 のような汎用モデルは一部の仕事では機能しますが、独自のドメインや独自のデータ用に独自にカスタマイズされた大規模言語モデルを必要とする大企業も多数あります、とダス氏は述べています。モデルが会社のコンテキストで必要なことを正確に実行していることを確認するためです。」

「NeMo は、独自のモデルを構築および保守する必要がある顧客向けの Nvidia のプラットフォームです。」

基調講演中にクラーク氏とのビデオディスカッションに出演したエヌビディアの最高経営責任者(CEO)ジェンセン・ファン氏は、「どの企業もその核心はインテリジェンスにある」と語った。

「Project Helix は…あらゆる企業が AI 工場となり、自社のインテリジェンス、ドメイン固有のインテリジェンス、専門知識を生産し、それを光の速さで大規模に実行できるようにするのに役立ちます」とフアン氏は述べています。

生成AIを中心とした急速なイノベーションも企業にさらなる選択肢を与えるだろうとデルのクラーク氏は主張した。 Project Helix に基づくデルの検証済みデザインは、XNUMX 月から利用可能になります。 ®

タイムスタンプ:

より多くの 登録