Meta が AI 言語モデル LLaMA を立ち上げ、研究者を支援し、ChatGPT に挑戦

Meta が AI 言語モデル LLaMA を立ち上げ、研究者を支援し、ChatGPT に挑戦

ソースノード: 1976707

Meta は金曜日、ジェネレーティブ AI 競争が過熱する中、人工知能に基づく新しい言語モデルをリリースすると発表した、と CEO の Mark Zuckerberg は金曜日に述べた。 新しい言語モデルは研究での使用を目的としており、学術研究者、政府、市民社会、学術組織、および業界研究で利用できるようになります。

LLaMA と呼ばれる言語モデルは、テキストと会話を生成し、書かれた資料を要約し、数学の定理を解いたり、タンパク質構造を予測したりするなどの複雑なタスクを実行するように設計されています。 で Facebookのポスト、メタは言った:

「7B から 65B のパラメーターに及ぶ基礎言語モデルのコレクションである LLaMA を紹介します。 何兆ものトークンでモデルをトレーニングし、独自のアクセスできないデータセットに頼ることなく、公開されているデータセットのみを使用して最先端のモデルをトレーニングできることを示しています。 特に、LLaMA-13B はほとんどのベンチマークで GPT-3 (175B) を上回り、LLaMA-65B は最高のモデルである Chinchilla70B および PaLM-540B と競合します。 私たちはすべてのモデルを研究コミュニティにリリースします。」

また、Twitter の投稿で、Facebook AI Research のリサーチ サイエンティストである Guillaume Lample 氏は次のように述べています。

「本日、4B から 7B パラメータまでの 65 つのファンデーション モデルである LLaMA をリリースします。 LLaMA-13B は、ほとんどのベンチマークで OPT および GPT-3 175B よりも優れています。 LLaMA-65B は、チンチラ 70B および PaLM 540B と競合します。」

ChatGPT は、30 年 2022 月 XNUMX 日にリリースされた後、人気が急上昇しました。OpenAI の AI 搭載チャットボットは、詩を書いたり、詳細な例を使用してコーディング ミスを修正したり、AI アート プロンプトを生成したりすることから、事実上すべてを実行できます。 バブル ソート アルゴリズムの最悪の場合の時間の複雑さも説明できます。

わずか 100 か月で、ChatGPT は 20 月に月間アクティブ ユーザー数が XNUMX 億人に達し、史上最も急速に成長している消費者向けアプリケーションになりました。 先週、同社は、人気の AI 搭載チャットボットの月額 XNUMX ドルのパイロット サブスクリプション プランである ChatGPT Plus を開始すると発表しました。 ChatGPT の突然の成功は、Google、Baidu、Alibaba などの他のテクノロジー企業にさらなる圧力をかけています。

ChatGPT は、大規模言語モデルの GPT-3 ファミリー向けの対話ベースの AI チャット インターフェイスです。 驚異的な ChatGPT は、深層学習を使用して人間のようなテキストを生成する自己回帰言語モデルである Generative Pre-trained Transformer 3 (GPT-3) の後継です。

ChatGPT は GPT-3.5 モデルから採用されましたが、より会話的な回答を提供するようにトレーニングされています。 ただし、GPT-3 とは異なり、新しい ChatGPT は、ユーザーとの会話、ソフトウェア コードの作成、ストーリーの説明、複雑な数式の解の提供など、一連の新しい機能を示しています。 すべての利点は、ここで新しいチャットボットを自分でテストできることです.

以下から LLaMA ホワイトペーパーの PDF コピーをダウンロードできます。

333078981_693988129081760_4712707815225756708_n

タイムスタンプ:

より多くの テックスタートアップ