07年2023月XNUMX日(Nanowerkニュース) OpenAI の GPT-3 のような大規模な言語モデルは、詩からプログラミング コードまで、人間のようなテキストを生成できる大規模なニューラル ネットワークです。 大量のインターネット データを使用してトレーニングされたこれらの機械学習モデルは、少量の入力テキストを受け取り、次に来る可能性が高いテキストを予測します。 しかし、これらのモデルができることはそれだけではありません。 研究者は、文脈内学習として知られる興味深い現象を調査しています。これは、大規模な言語モデルが、そのタスク用に訓練されていないにもかかわらず、ほんの数例を見ただけでタスクを達成することを学習するというものです。 たとえば、誰かがモデルにいくつかの例文とその感情 (肯定的または否定的) を入力してから、新しい文でモデルにプロンプトを出すと、モデルは正しい感情を与えることができます。 通常、GPT-3 のような機械学習モデルは、この新しいタスクのために新しいデータで再トレーニングする必要があります。 このトレーニング プロセス中、モデルはタスクを学習するために新しい情報を処理するときにパラメーターを更新します。 しかし、インコンテキスト学習では、モデルのパラメーターは更新されないため、モデルは何も学習せずに新しいタスクを学習しているように見えます。 MIT、Google Research、スタンフォード大学の科学者たちは、この謎の解明に取り組んでいます。 彼らは、パラメータを更新せずにどのように学習できるかを確認するために、大規模な言語モデルに非常によく似たモデルを調査しました。 研究者の理論的結果は、これらの大規模なニューラル ネットワーク モデルが、内部に埋め込まれたより小さくて単純な線形モデルを含むことができることを示しています。 次に、大規模なモデルに単純な学習アルゴリズムを実装して、この小規模な線形モデルをトレーニングし、大規模なモデルに既に含まれている情報のみを使用して新しいタスクを完了することができます。 パラメータは固定のままです。 この研究は、インコンテキスト学習の背後にあるメカニズムを理解するための重要なステップであり、これらの大規模モデルが実装できる学習アルゴリズムに関するさらなる調査への扉を開くと、コンピューター サイエンスの大学院生で論文の筆頭著者である Ekin Akyürek は述べています (「インコンテキスト学習とはどのような学習アルゴリズムですか? 線形モデルによる調査」) この現象を調査しています。 インコンテキスト学習をよりよく理解することで、研究者は、コストのかかる再トレーニングを必要とせずに、モデルが新しいタスクを完了できるようにすることができます。 「通常、これらのモデルを微調整したい場合は、ドメイン固有のデータを収集し、複雑なエンジニアリングを行う必要があります。 しかし今では、入力と XNUMX つの例を与えるだけで、目的を達成できます。 したがって、インコンテキスト学習は非常にエキサイティングな現象です」と Akyürek 氏は言います。 この論文で Akyürek に加わっているのは、Google Brain の研究科学者であり、アルバータ大学のコンピューティング サイエンスの教授である Dale Schuurmans です。 上級著者のジェイコブ・アンドレアス氏は、MIT の電気工学およびコンピューター科学部門の X コンソーシアム助教授であり、MIT コンピューター科学および人工知能研究所 (CSAIL) のメンバーです。 スタンフォード大学のコンピューター サイエンスと統計学の助教授である Tengyu Ma 氏。 そして、Google Brain の主任科学者兼リサーチ ディレクターである Danny Zhou 氏は次のように述べています。 この研究は、学習表現に関する国際会議で発表されます。
モデル内のモデル
機械学習の研究コミュニティでは、多くの科学者が、大規模な言語モデルがコンテキスト内学習を実行できると信じるようになったのは、それらがどのようにトレーニングされているかによると考えています、と Akyürek は言います。 たとえば、GPT-3 には数千億のパラメーターがあり、ウィキペディアの記事から Reddit の投稿まで、インターネット上の膨大な量のテキストを読み取ることによってトレーニングされました。 したがって、誰かが新しいタスクのモデル例を示すとき、トレーニング データセットには何十億もの Web サイトからのテキストが含まれているため、非常によく似たものを既に見ている可能性があります。 新しいタスクを実行することを学習するのではなく、トレーニング中に見たパターンを繰り返します。 Akyürek は、コンテキスト内の学習者は、以前に見たパターンに一致するだけでなく、実際に新しいタスクを実行することを学んでいるという仮説を立てました。 彼と他の人々は、これまでどこにも見られなかった合成データを使用してこれらのモデルにプロンプトを与える実験を行い、モデルがほんの数例から学習できることを発見しました。 Akyürek と彼の同僚は、おそらくこれらのニューラル ネットワーク モデルには、モデルが新しいタスクを完了するためにトレーニングできる小さな機械学習モデルが内部にあるのではないかと考えました。 「これは、これらの大規模モデルで見られたほとんどすべての学習現象を説明できる可能性があります」と彼は言います。 この仮説を検証するために、研究者はトランスフォーマーと呼ばれるニューラル ネットワーク モデルを使用しました。トランスフォーマーは GPT-3 と同じアーキテクチャを持ちますが、インコンテキスト学習用に特別にトレーニングされています。 このトランスフォーマーのアーキテクチャを調査することにより、彼らは、隠れた状態内で線形モデルを記述できることを理論的に証明しました。 ニューラル ネットワークは、データを処理する相互接続されたノードの多くの層で構成されています。 隠れ状態は、入力層と出力層の間の層です。 彼らの数学的評価は、この線形モデルが変圧器の最初の層のどこかに書かれていることを示しています。 次に、トランスフォーマーは、単純な学習アルゴリズムを実装して線形モデルを更新できます。 本質的に、モデルはそれ自体のより小さなバージョンをシミュレートしてトレーニングします。隠れ層の探索
研究者は、調査実験を使用してこの仮説を調査し、トランスフォーマーの隠れ層を調べて、特定の量を回収しようとしました。 「この場合、実際の解を線形モデルに復元しようとしましたが、パラメーターが隠れた状態で記述されていることを示すことができました。 これは、線形モデルがどこかにあることを意味します」と彼は言います。 この理論的な作業を基に構築することで、研究者はニューラル ネットワークに XNUMX つのレイヤーを追加するだけで、トランスフォーマーがコンテキスト内学習を実行できるようになる可能性があります。 Akyürek 氏は、それが可能になる前に解決すべき技術的な詳細がまだたくさんあると警告していますが、エンジニアが新しいデータで再トレーニングする必要なく新しいタスクを完了できるモデルを作成するのに役立つ可能性があります。 Akyürek は今後も、この研究で研究した線形モデルよりも複雑な関数を使用して、コンテキスト内学習を探求し続ける予定です。 また、これらの実験を大規模な言語モデルに適用して、その行動が単純な学習アルゴリズムによっても記述されるかどうかを確認することもできます。 さらに、インコンテキスト学習を可能にする事前トレーニング データの種類をさらに深く掘り下げたいと考えています。 「この作業により、これらのモデルが手本からどのように学習できるかを視覚化できるようになりました。 ですから、私の希望は、インコンテキスト学習に対する一部の人々の見方を変えることです」と Akyürek 氏は言います。 「これらのモデルは、人々が考えるほど愚かではありません。 彼らはこれらのタスクを暗記するだけではありません。 彼らは新しいタスクを学ぶことができ、私たちはそれがどのようにできるかを示しました。」- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- Platoblockchain。 Web3メタバースインテリジェンス。 知識の増幅。 こちらからアクセスしてください。
- 情報源: https://www.nanowerk.com/news2/robotics/newsid=62325.php
- 10
- 7
- 9
- a
- できる
- 私たちについて
- こちらからお申し込みください。
- 実際に
- 添加
- 後
- アルバータ州
- アルゴリズム
- アルゴリズム
- すべて
- 既に
- および
- どこにでも
- 申し込む
- 建築
- 周りに
- 物品
- 人工の
- 人工知能
- アシスタント
- 著者
- 著者
- なぜなら
- 背後に
- 信じる
- より良いです
- の間に
- 億
- ビット
- 脳
- 建物
- 呼ばれます
- できる
- 場合
- 一定
- 変更
- コード
- 同僚
- 収集する
- 来ます
- コミュニティ
- コンプリート
- 複雑な
- 構成
- コンピュータ
- コンピュータサイエンス
- コンピューティング
- 講演
- コンソーシアム
- 続ける
- 可能性
- 作ります
- CSAIL
- 興味深い
- データ
- 日付
- より深い
- 部門
- 記載された
- にもかかわらず
- 細部
- DIG
- 取締役
- ドント
- によって
- 間に
- 電気工学
- enable
- エンジニアリング
- エンジニア
- 本質
- 評価
- 例
- 例
- エキサイティング
- 説明する
- 探査
- 調査済み
- 探る
- 少数の
- 固定の
- フォワード
- 発見
- から
- 機能
- 生成する
- 与える
- 与え
- でログイン
- 卒業生
- 助けます
- 隠されました
- 希望
- 認定条件
- HTTPS
- 巨大な
- 何百
- 実装する
- 実装
- 重要
- in
- 含まれました
- 情報
- を取得する必要がある者
- インテリジェンス
- 相互接続
- 世界全体
- インターネット
- 調査
- IT
- 自体
- 参加
- 既知の
- 実験室
- 言語
- 大
- より大きい
- 層
- つながる
- LEARN
- 学習
- 可能性が高い
- 見
- 多くの
- 大規模な
- マッチング
- 数学的
- 手段
- メンバー
- マサチューセッツ工科大学(MIT)
- モデル
- 他には?
- 移動する
- 謎
- 必要
- 負
- ネットワーク
- ネットワーク
- ニューラル
- ニューラルネットワーク
- ニューラルネットワーク
- 新作
- 次の
- ノード
- 開きます
- その他
- 紙素材
- パラメーター
- パラメータ
- パターン
- のワークプ
- 人々の
- 実行する
- おそらく
- 現象
- プラン
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 詩
- 正の
- 可能
- 投稿
- 予測する
- PLM platform.
- かなり
- 前に
- 校長
- プロセス
- ラボレーション
- 東京大学大学院海洋学研究室教授
- プログラミング
- 証明
- 量
- リーディング
- 回復する
- 残る
- 研究
- 研究コミュニティ
- 研究者
- 結果
- 再訓練
- 同じ
- 言う
- 科学
- 科学者
- 科学者たち
- 見ること
- と思われる
- シニア
- 文
- 感情
- いくつかの
- 表示する
- 示す
- 作品
- 同様の
- 簡単な拡張で
- 小さい
- より小さい
- So
- 溶液
- 解決
- 一部
- 誰か
- 何か
- どこか
- 特に
- スタンフォード
- スタンフォード大学
- 米国
- 統計
- 手順
- まだ
- 学生
- 研究
- 合成
- 合成データ
- 取る
- 仕事
- タスク
- 技術的
- test
- アプリ環境に合わせて
- 理論的な
- 考え
- 〜へ
- に向かって
- トレーニング
- 訓練された
- トレーニング
- 列車
- 一般的に
- 理解する
- 大学
- アップデイト
- 更新しました
- 更新版
- 更新
- バージョン
- ビュー
- ウェブサイト
- この試験は
- かどうか
- which
- Wikipedia
- 意志
- 以内
- 無し
- 仕事
- いい結果になる
- でしょう
- 書きます
- 書かれた
- X
- ゼファーネット