火曜日に正式に発表される予定、新しいチップの詳細 オンラインリーク 月曜日に。 新しいチップは、パフォーマンスの向上だけでなく、オンデバイス AI 機能の大幅な飛躍を約束します。 MSパワーユーザー.
25% 高速化された GPU や 30% 高速化された CPU など、予想される段階的なパフォーマンスの向上に加えて、新しいシステムオンチップ (SoC) には、ローカル AI モデルの高精度をサポートできる強力な AI エンジンが搭載されています。 10 億を超えるパラメータのローカル大規模言語モデル (LLM) を実行できます。 このチップは、ControlNet ニューラル ネットワークを使用してテキストから画像へのモデルの安定拡散を実行することもできます。
モバイル ハードウェア メーカーは AI への方向転換を強力に進めています。 たとえば、Google は Tensor チップを改良し、最新の Pixel スマートフォンがローカルで実行する無数の AI 機能を管理できるようにし、クラウド処理の必要性を回避しました。 同様に、Apple は A17 Pro SoC でゲームを強化し、AI 能力を強化しました。
民生用デバイスにおける AI 対応チップの出現は、テクノロジーの変革時代の到来を告げています。 これらの高度なプロセッサは、複雑な AI モデルをローカルで実行するように設計されており、パーソナライズされたチャットボット アシスタントや超現実的なゲーム体験から、リアルタイムの健康監視や適応ユーザー インターフェイスに至るまで、可能性に満ちた未来を示唆しています。
ケント・カーセイ氏はCEOです。 AIを呼び出すは、AI 画像生成の最前線にある企業であり、 安定拡散の力を活用する。 彼は言いました 解読する AI をクラウドではなくデバイス上で実行すると、多くの利点が得られるということです。
「クラウドベースのコンピューティングは、大企業にとっては優れた選択肢ですが、コンテンツを作成したいと考えている個人にとっては、オンデバイス AI は、より手頃な価格でパーソナライズされたプライベートな代替手段を提供します」と同氏は述べています。 同氏はまた、大規模な統合メモリの導入における Apple のアプローチの可能性を強調し、たとえば、クラウドベースの Siri の代わりに強力なローカル LLM アシスタントを使用する将来を示唆しました。
クアルコムの Snapdragon 8 Gen 3 は単なるマイクロチップではありません。 それは AI 中心のモバイルの未来の前触れです。 クアルコム、グーグル、アップルなどの業界リーダーが先頭に立っているため、アシスタントがすべての秘密を守りながら、質問に答えたりタスクを実行したりするのに実際に役立つようになるのも時間の問題です。