Apple がオンデバイス AI を開発していることに本当に驚いている人はいますか?

Apple がオンデバイス AI を開発していることに本当に驚いている人はいますか?

ソースノード: 3083594

コメント 自社の iDevice に生成 AI を追加するという Apple の取り組みに誰も驚かないはずだが、クパチーノにおけるこの技術の既存の使用法とモバイル ハードウェアの制約を考えると、それが近い将来 iOS の大きな機能にはならないだろう。

Apple は、最近の生成 AI 推進の波に参加しておらず、多くの企業と比較して、最近の基調講演でも一般的に「AI」や「人工知能」という用語を避けています。しかし、機械学習はこれまでも、そしてこれからも Apple にとって重要な機能であり、主にユーザー エクスペリエンスを微妙に改善するサービスの背景にあります。

Apple が画像を処理するために AI を使用していることは、バックグラウンドで機能しているテクノロジーの一例です。 iThings が写真をキャプチャすると、機械学習アルゴリズムが作動して被写体を識別してタグ付けし、光学式文字認識を実行してリンクを追加します。

2024 年には、そのような目に見えない AI では役に立ちません。 Apple のライバル各社は、生成 AI をあらゆるデバイスやアプリケーションに不可欠な機能として宣伝しています。最近の情報によると、 フィナンシャル·タイムズ レポート, AppleはAI企業を密かに買収し、確実に提供できるよう独自の大規模言語モデルを開発してきた。

Appleのハードウェアの優位性

Apple の自作シリコンのニューラル プロセッシング ユニット (NPU) は、既存の AI 実装を処理します。 Apple は、2017 年の A11 システムオンチップのデビュー以来、同社が「ニューラル エンジン」と呼ぶアクセラレータを採用しており、これを使用して小規模な機械学習ワークロードを処理し、デバイスの CPU と GPU を他の雑用に解放しています。

Apple の NPU は特に強力です。 A17 Proは、 iPhone 15 Pro 前モデルの 35 倍である XNUMX TOPS を押し出す能力があり、 その倍 Intel と AMD が PC で使用するために提供している一部の NPU の一部。

Qualcomm の最新の Snapdragon チップは、NPU パフォーマンスの点で Apple のチップに匹敵します。 Apple と同様に、Qualcomm もモバイル デバイスにおける NPU の長年の経験があります。 AMD と Intel はこの分野では比較的新しいです。

Apple は、『バイオハザード 4 リメイク』や『アサシン クリード ミラージュ』などのゲーム実行能力の高さを宣伝しているが、同チップの GPU の浮動小数点や整数のパフォーマンスについては公表していない。これは、計算能力がプラットフォーム上でより大きな AI モデルを実行するための制限要因ではないことを示唆しています。

これをさらに裏付けるのは、Apple の Mac および iPad 製品ラインで使用されている M シリーズ シリコンが、AI 推論ワークロードの実行に特に強力であることが証明されているという事実です。私たちのテストでは、十分なメモリがあれば (16GB 未満で問題が発生しました)、現在 1 年前の M2 Macbook Air は 7 ビット精度で Llama 8 4B を実行でき、1 ビットではさらに高速でした。モデルの量子化バージョン。ちなみに、MXNUMX Macでこれを試したい場合は、 オラマ.ai Llama 2 の実行が簡単になります。

Apple がハードウェアの譲歩を迫られる可能性があるのは、メモリです。

一般的に、AI モデルは 8 ビット精度で実行する場合、4 億のパラメーターごとに約 XNUMX ギガバイトのメモリを必要とします。これは、Int-XNUMX などのより低い精度に落とすか、より小さな量子化モデルを開発することによって、半分にすることができます。

Llama 2 7B は、小さなバッチ サイズを実行する場合のフットプリントと計算要件が比較的小さいため、AI PC およびスマートフォンの一般的なリファレンス ポイントになっています。 4 ビット量子化を使用すると、モデルの要件を 3.5 GB に削減できます。

しかし、iPhone 8 Pro に 15 GB の RAM が搭載されているとしても、Apple の次世代携帯電話にはさらに多くのメモリが必要になるのではないか、あるいはモデルをより小型でよりターゲットを絞ったものにする必要があるのではないかと考えられます。これは、Qualcomm から見てきたように、Apple が Stable Diffusion や Llama 2 などのモデルを Int-4 で実行するのに採用するのではなく、独自のモデルを開発することを選択している理由の XNUMX つである可能性があります。

Apple がメモリの問題を回避する方法を見つけた可能性があることを示唆する証拠もいくつかあります。によって発見されたように、 フィナンシャル·タイムズ、12月に遡ると、Appleの研究者は[PDF] フラッシュ メモリを使用してデバイス上で LLM を実行する機能を実証した論文。

AI に対してはより保守的なアプローチが期待される

Apple がデスクトップおよびモバイル プラットフォームに AI 機能を導入する場合、私たちは比較的保守的なアプローチを取ると予想しています。

Siri を、人々が未就学児のように話しかける必要を感じないものに変えるのは、当然のスタート地点のように思えます。そうすることは、入力を Siri がより簡単に理解できる形式に解析する仕事を LLM に与えることを意味し、ボットがより適切な回答を提供できるようになります。

遠回しな言い方でクエリを表現すると、Siri は混乱しにくくなり、より効果的な応答が得られる可能性があります。

理論的には、これにはいくつかの利点があるはずです。 2 つ目は、Apple が Llama XNUMX のようなモデルよりもはるかに小さいモデルを使用することで問題を解決できるはずです。XNUMX つ目は、LLM が誤った応答を生成する問題を大幅に回避できるはずです。

私たちが間違っている可能性もありますが、Apple には最新テクノロジーの実装に遅れをとったものの、実際に役立つようになるまで時間をかけて機能を磨き上げ、他社が失敗したところで成功を収めたという実績があります。

そして実際のところ、生成 AI がヒットするかどうかはまだ証明されていません。Microsoft の大手チャットボットは、誰にも人気のない検索エンジン Bing に命を吹き込むことに賭けています。 翻訳していない 市場シェアが大幅に拡大します。

一方、Appleは2024年の栄冠を手にした。 トップスマートフォンベンダー 目に見えない AI のみを導入します。 ®

タイムスタンプ:

より多くの 登録