エッジの基礎モデル - IBM ブログ

エッジの基礎モデル – IBM ブログ

ソースノード: 2891323

エッジの基礎モデル – IBM ブログ



建物の空撮

基本モデル (FM) 新しい時代の始まりを告げています 機械学習(ML) および 人工知能(AI)これにより、幅広い下流タスクに適応し、さまざまなアプリケーションに合わせて微調整できる AI の開発が迅速化されます。 

作業が実行される場所でのデータ処理の重要性が高まる中、企業エッジで AI モデルを提供することで、データ主権とプライバシーの要件を遵守しながら、ほぼリアルタイムの予測が可能になります。 を組み合わせることで、 IBMワトソンx エッジ コンピューティングを備えた FM 向けのデータおよび AI プラットフォーム機能を利用すると、企業は運用エッジで FM の微調整と推論のための AI ワークロードを実行できます。 これにより、企業は AI 導入をエッジで拡張できるようになり、導入にかかる時間とコストが削減され、応答時間が短縮されます。

エッジ コンピューティングに関するこのブログ投稿シリーズのすべての記事を必ずチェックしてください。

基本モデルとは何ですか?

基礎モデル (FM) は、ラベルのない広範なデータセットで大規模にトレーニングされ、最先端の人工知能 (AI) アプリケーションを推進しています。 これらは、幅広い下流タスクに適応でき、さまざまなアプリケーションに合わせて微調整できます。 単一ドメインで特定のタスクを実行する最新の AI モデルは、FM がより一般的に学習し、ドメインや問題を超えて機能するため、FM に取って代わられています。 名前が示すように、FM は AI モデルの多くのアプリケーションの基盤となることができます。

FM は、企業による AI 導入の拡大を妨げている XNUMX つの重要な課題に対処します。 まず、企業はラベルのない大量のデータを生成しますが、AI モデルのトレーニング用にラベルが付けられているのはその一部だけです。 第 XNUMX に、このラベル付けと注釈のタスクは非常に人力が必要であり、多くの場合、対象分野の専門家 (SME) の数百時間の時間を必要とします。 そのため、複数の中小企業やデータ専門家が必要となるため、ユースケース全体に拡張するには法外なコストがかかります。 FM は、大量のラベルなしデータを取り込み、モデルのトレーニングに自己教師ありの手法を使用することで、これらのボトルネックを解消し、企業全体に AI を大規模に導入する道を開きました。 あらゆるビジネスに存在するこれらの大量のデータは、洞察を引き出すために解き放たれるのを待っています。

大規模言語モデルとは何ですか?

大規模言語モデル (LLM) は、次の層で構成される基礎モデル (FM) のクラスです。 ニューラルネットワーク これらの大量のラベルなしデータに基づいてトレーニングされたものです。 自己教師あり学習アルゴリズムを使用して、さまざまな処理を実行します。 自然言語処理(NLP) 人間が言語を使用する方法と同様の方法でタスクを実行します (図 1 を参照)。

図 1. 大規模言語モデル (LLM) は AI の分野に旋風を巻き起こしています。
図 1. 大規模言語モデル (LLM) は AI の分野に旋風を巻き起こしています。

AI の影響を拡大し加速する

基本モデル (FM) を構築してデプロイするには、いくつかの手順があります。 これらには、データの取り込み、データの選択、データの前処理、FM の事前トレーニング、XNUMX つ以上の下流タスクへのモデルの調整、推論の提供、データと AI のモデルのガバナンスとライフサイクル管理が含まれます。これらはすべて次のように説明できます。 FMOps.

これらすべてを支援するために、IBM は、これらの FM の力を活用するために必要なツールと機能を企業に提供しています。 IBMワトソンxは、企業全体に AI の影響を倍増させるように設計された、エンタープライズ対応の AI およびデータ プラットフォームです。 IBM watsonx は以下で構成されます。

  1. IBM ワトソンx.ai 新しいものをもたらす generative AI FM と従来の機械学習 (ML) を活用した機能を、AI ライフサイクル全体にわたる強力なスタジオに統合します。
  2. IBM watsonx.data は、オープン レイクハウス アーキテクチャ上に構築された目的に適したデータ ストアで、場所を問わず、すべてのデータの AI ワークロードを拡張します。
  3. IBM watsonx.governance は、責任があり、透明性があり、説明可能な AI ワークフローを可能にするために構築された、エンドツーエンドの自動化された AI ライフサイクル ガバナンス ツールキットです。

もう XNUMX つの重要なベクトルは、産業拠点、製造現場、小売店、通信会社のエッジ サイトなど、エンタープライズ エッジでのコンピューティングの重要性が高まっていることです。より具体的には、エンタープライズ エッジでの AI により、作業が実行されているデータの処理が可能になります。ほぼリアルタイムの分析。 エンタープライズ エッジは、膨大な量の企業データが生成され、AI が貴重でタイムリーで実用的なビジネス インサイトを提供できる場所です。

AI モデルをエッジで提供することで、データ主権とプライバシーの要件を遵守しながら、ほぼリアルタイムの予測が可能になります。 これにより、検査データの取得、送信、変換、処理に伴う待ち時間が大幅に短縮されます。 エッジで作業することで、企業の機密データを保護し、応答時間を短縮してデータ転送コストを削減できます。

しかし、データ (異質性、ボリューム、規制) や制約のあるリソース (コンピューティング、ネットワーク接続、ストレージ、さらには IT スキル) 関連の課題の中で、エッジでの AI 導入のスケーリングは簡単な作業ではありません。 これらは大きく XNUMX つのカテゴリに分類できます。

  • 導入にかかる時間とコスト: 各展開は、展開前にインストール、構成、テストする必要があるハードウェアとソフトウェアのいくつかの層で構成されます。 現在、サービス専門家による設置には最大 XNUMX ~ XNUMX 週間かかる場合があります。 各場所で、 これにより、企業が組織全体に展開を迅速かつコスト効率よくスケールアップできる方法が大幅に制限されます。                                  
  • 2 日目の管理: 導入されたエッジの数と各導入の地理的位置により、これらの導入を監視、保守、更新するために各拠点でローカル IT サポートを提供すると、法外な費用がかかることがよくあります。

エッジAIの導入

IBM は、統合されたハードウェア/ソフトウェア (HW/SW) アプライアンス モデルをエッジ AI 導入に導入することで、これらの課題に対処するエッジ アーキテクチャを開発しました。 これは、AI 導入のスケーラビリティを支援するいくつかの重要なパラダイムで構成されています。

  • ポリシーベースの完全なソフトウェア スタックのゼロタッチ プロビジョニング。
  • エッジシステムの健全性を継続的に監視
  • ソフトウェア、セキュリティ、構成の更新を管理し、多数のエッジ ロケーションにプッシュする機能。すべて中央のクラウドベースのロケーションから Day 2 管理を実現します。

分散ハブアンドスポーク アーキテクチャを利用して、エンタープライズ AI 導入をエッジで拡張できます。中央のクラウドまたはエンタープライズ データ センターがハブとして機能し、エッジインボックス アプライアンスがエッジ ロケーションのスポークとして機能します。. このハブ アンド スポーク モデルは、ハイブリッド クラウドとエッジ環境にまたがり、FM 運用に必要なリソースを最適に利用するために必要なバランスを最もよく示しています (図 2 を参照)。

図 2. エッジ ロケーションにおけるエンタープライズ AI のハブアンドスポーク導入構成。
図 2. エッジ ロケーションにおけるエンタープライズ AI のハブアンドスポーク導入構成。

これらの基本的な大規模言語モデル (LLM) や、ラベルなしの広大なデータセットに対する自己教師あり手法を使用した他のタイプの基礎モデルの事前トレーニングには、多くの場合、大量のコンピューティング (GPU) リソースが必要であり、ハブで実行するのが最適です。 事実上無制限のコンピューティング リソースとクラウドに保存される大規模なデータの山により、大規模なパラメーター モデルの事前トレーニングと、これらの基本基盤モデルの精度の継続的な向上が可能になります。

一方で、数十から数百のラベル付きデータ サンプルと推論処理のみを必要とするダウンストリーム タスク向けのこれらのベース FM の調整は、エンタープライズ エッジの数個の GPU だけで実現できます。 これにより、機密ラベル付きデータ (または企業の最高級データ) を企業の運用環境内に安全に保管できると同時に、データ転送コストも削減できます。

データ サイエンティストは、アプリケーションをエッジにデプロイするためのフルスタック アプローチを使用して、モデルの微調整、テスト、デプロイを実行できます。 これは、新しい AI モデルをエンド ユーザーに提供するための開発ライフサイクルを短縮しながら、単一の環境で実現できます。 Red Hat OpenShift Data Science (RHODS) や最近発表された Red Hat OpenShift AI などのプラットフォームは、本番環境に対応した AI モデルを迅速に開発およびデプロイするためのツールを提供します。 分散クラウド およびエッジ環境。

最後に、エンタープライズ エッジで微調整された AI モデルを提供することで、データの取得、送信、変換、処理に伴う遅延が大幅に削減されます。 クラウドでの事前トレーニングをエッジでの微調整や推論から切り離すことで、推論タスクに関連する所要時間とデータ移動コストが削減され、全体の運用コストが削減されます (図 3 を参照)。

図 3. Edge-in-a-Box による運用エッジでの FM 微調整と推論の価値提案。 土木技術者がドローン画像入力を使用してほぼリアルタイムの欠陥検出の洞察を得るためにこのような FM モデルを展開する例示的なユースケース。
図 3. Edge-in-a-Box による運用エッジでの FM 微調整と推論の価値提案。 土木技術者がドローン画像入力を使用してほぼリアルタイムの欠陥検出の洞察を得るためにこのような FM モデルを展開する例示的なユースケース。

この価値提案をエンドツーエンドで実証するために、民間インフラストラクチャ向けの模範的なビジョン トランスフォーマー ベースの基盤モデル (業界固有のパブリックおよびカスタム データセットを使用して事前トレーニング済み) が微調整され、XNUMX ノード エッジでの推論のためにデプロイされました。 (話し)クラスター。 ソフトウェア スタックには、Red Hat OpenShift Container Platform と Red Hat OpenShift Data Science が含まれていました。 このエッジ クラスターは、クラウドで実行されている Red Hat Advanced Cluster Management for Kubernetes (RHACM) ハブのインスタンスにも接続されました。

ゼロタッチプロビジョニング

ポリシーベースのゼロタッチプロビジョニングは、ポリシーと配置タグを介して Red Hat Advanced Cluster Management for Kubernetes (RHACM) で実行され、特定のエッジクラスターをソフトウェアコンポーネントと設定のセットにバインドします。 これらのソフトウェア コンポーネントは、フルスタックに拡張され、コンピューティング、ストレージ、ネットワーク、AI ワークロードをカバーしており、さまざまな OpenShift オペレーター、必要なアプリケーション サービスのプロビジョニング、および S3 バケット (ストレージ) を使用してインストールされました。

事前トレーニングされた土木インフラの基礎モデル (FM) は、ラベル付きデータを使用して Red Hat OpenShift Data Science (RHODS) 内の Jupyter Notebook を介して微調整され、コンクリート橋で見つかった XNUMX 種類の欠陥を分類しました。 この微調整された FM の推論サービスも、Triton サーバーを使用して実証されました。 さらに、このエッジ システムの健全性の監視は、Prometheus を介してハードウェアおよびソフトウェア コンポーネントから可観測性メトリクスをクラウド内の中央の RHACM ダッシュボードに集約することによって可能になりました。 民間インフラ企業は、これらの FM をエッジ ロケーションに導入し、ドローン画像を使用してほぼリアルタイムで欠陥を検出できます。これにより、洞察までの時間が短縮され、クラウドとの間で大量の高解像度データを移動するコストが削減されます。

まとめ

結合 IBMワトソンx Edge-in-a-Box アプライアンスを使用した基盤モデル (FM) のデータおよび AI プラットフォーム機能により、企業は運用エッジで FM の微調整と推論のための AI ワークロードを実行できます。 このアプライアンスは、複雑なユースケースをすぐに処理でき、集中管理、自動化、セルフサービスのためのハブアンドスポークフレームワークを構築します。 Edge FM の導入は、再現性の高い成功、高い復元力、セキュリティを実現し、数週間から数時間に短縮できます。

基本モデルについて詳しく見る

エッジ コンピューティングに関するこのブログ投稿シリーズのすべての記事を必ずチェックしてください。

カテゴリー

クラウドの詳細

Temenos は革新的な決済機能を IBM Cloud にもたらし、銀行の変革を支援します

3 分読みます決済エコシステムは変革の転換点にあり、私たちは今が変革の時であると信じています。 銀行が決済業務の最新化を目指す中、Temenos Payments Hub は、IBM Cloud for Financial Services® 上で革新的な決済機能を提供する初の専用決済ソリューションとなりました。これは、金融機関のデジタル変革をセキュリティで加速するように設計された業界固有のプラットフォームです。最先端。 これは、クライアントの変革を支援する私たちの長い歴史の中での最新の取り組みです。 Temenos の支払いにより…

決済モダナイゼーションの次の波: 複雑さを最小限に抑えて顧客エクスペリエンスを向上

3 分読みます決済エコシステムは変革の転換点にあり、特に暗号通貨や中央銀行デジタル通貨(CDBC)などの新しい決済方法を導入する破壊的なデジタル参入者の台頭が顕著です。 顧客の選択肢が増えることで、従来の銀行にとってウォレットのシェアを獲得する競争はさらに激しくなっています。 これは、決済分野がどのように進化したかを示す多くの例のうちの XNUMX つにすぎません。 同時に、規制当局が業界の状況をより厳密に監視するようになっています。

IBM Connected Trade Platform は、貿易とサプライチェーン金融のデジタル化を促進します

4 分読みます現在、世界的な出来事や地政学、規制の変化、コンプライアンスと管理の要件、テクノロジーとイノベーションの進歩、資本へのアクセスに大きく影響される、貿易およびサプライチェーン金融のビジネスにおける重大なデジタル破壊が発生しています。 これらの破壊要因をより詳しく調査すると、世界貿易とサプライチェーンファイナンスに影響を与える可能性のあるさまざまな要因があることが明らかです。 これらはインフレの上昇(マージンを引き起こす可能性がある)に至るまで多岐にわたる可能性があります…

プライベート VPC ネットワーク内の RHEL で SSH セッションを安全に記録する

5 分読みますこのブログ投稿では、組み込みパッケージを使用して、プライベート VPC ネットワーク内の Red Hat Enterprise Linux (RHEL) VSI で SSH セッションを記録する方法を学習します。 VPC プライベート ネットワークは Terraform を通じてプロビジョニングされ、RHEL パッケージは Ansible 自動化を使用してインストールされます。 さらに、高可用性要塞ホストをセットアップする方法を学習します。 セッション記録とは何ですか?なぜ必要ですか? 要塞ホストとジャンプ サーバーはどちらもネットワークで使用されるセキュリティ メカニズムであり、…

タイムスタンプ:

より多くの IBM