マイクロソフトのボフィンは、Excel に AI を装備することを検討しています

マイクロソフトのボフィンは、Excel に AI を装備することを検討しています

ソースノード: 1938042

遅かれ早かれ、すべてが Microsoft Excel で終了します。

37 歳のスプレッドシートは実行に使用されています 運命 & パックマン, ストップモーションアニメーション、ターン制 ロールプレイングゲーム, チェス, ニューラルネットワーク、 とりわけ。

Excel の最新のトリックは、Microsoft 自身のソフトウェア開発者の厚意によるものです。「FLAME: スプレッドシート数式の小さな言語モデル」。

に詳しく載っています プレプリント紙 Microsoft の研究者 Harshit Joshi、Abishai Ebenezer、José Cambronero、Sumit Gulwani、Aditya Kanade、Vu Le、Ivan Radiček、Gust Verbruggen から。 この論文では、FLAME と呼ばれる支援型 AI システムについて説明しています。 これは、Excel 数式の作成と保守を改善できる小さな言語モデルです。

OpenAI の ChatGPT のような大規模な言語モデルは、 大流行して この時点で。 これらは、膨大な量のテキストでトレーニングされた統計モデルであり、テキスト プロンプト入力に基づいて出力を予測できます。

大規模な言語モデルの問題は、大規模であることです。トレーニングには大量の入力データとお金が必要であり、結果のモデルを推論に使用することも多くのハードウェアを必要とします。 たとえば、研究者は Incoder 6.7B を引用しています。これは、159 個の Nvidia V24 GPU を使用して 248 日間にわたって 100 GB のソース コードにコードを埋め込むようにトレーニングされたモデルです。

ラムダ研究所は 推定 3B パラメータ モデルである GPT-175 をトレーニングするコストは、Tesla V4.6 インスタンスを使用して約 100 万ドルになります。

FLAME は、わずか 60 万個のパラメーターしかなく、「Excel 数式専用に設計された最初の言語モデル」です。 この研究論文では、FLAME が「First LANguage Model for Excel」を表す頭字語であると明示的に述べていませんが、これは事実であると推測されます。

その適度なサイズにもかかわらず、FLAME は、CodeT5 (220M)、Codex-Cushman (12B)、Codex-Davinci (175B) など、コード行を完成させる (コードの埋め込み) ために調整されたはるかに大きなモデルよりも優れたパフォーマンスを発揮します。

FLAME は、Excel の数式をオートコンプリートしたり、不正な形式のものを修復したり、構文の再構築 (数式から区切り記号 (中かっこなど) を削除する手法) を処理したりして、モデルが完全な数式をより簡単に認識して再構築できるように設計されています。

そのため、Excel の将来のバージョンでは、FLAME がソフトウェアに組み込まれると、次のようなバグのある数式を入力します…

=IF('13 年 2 月'!B13="", '2 年 13 月'!B2="", '13 年 2 月'!BXNUMX="", 'XNUMX 年 XNUMX 月'!BXNUMX="", はい, いいえ)

…フレイムの補正能力でこんな感じになるかも。

=IF(AND('13 年 2 月'!B13="", '2 年 13 月'!B2="", '13 年 2 月'!BXNUMX="", 'XNUMX 年 XNUMX 月'!BXNUMX=""), "はい", "いいえ")

また、Codex や他の大規模な言語モデルよりも XNUMX 桁少ないトレーニング データでこれを行うことができるということは、Microsoft は、準備が整ったときに FLAME をより手頃な価格で展開できることを意味します。

多くの数式を含む大規模なスプレッドシートを維持する必要がある人にとって、謙虚なハゲタカは、FLAME はかなりクールに見えると言わなければなりません。 ®

タイムスタンプ:

より多くの 登録