OpenAI、スーパーインテリジェンスを規制する世界的な機関を求める

OpenAI、スーパーインテリジェンスを規制する世界的な機関を求める

ソースノード: 2674707

GPT-4メーカーOpenAIの幹部らによると、汎用人工知能技術が人類にとって安全であることを確認するため、国際機関が検査と監査を担当すべきだという。

CEOのサム・アルトマン氏と共同創設者のグレッグ・ブロックマン氏とイリヤ・サツケヴァー氏は、AIが今後XNUMX年間で人間を超える並外れた能力を獲得することは「考えられる」と述べた。

「潜在的な良い面と悪い面の両方の点で、超知能は人類が過去に戦わなければならなかった他のテクノロジーよりも強力になるでしょう。 私たちは劇的に豊かな未来を手に入れることができます。 しかし、そこに到達するにはリスクを管理しなければなりません」とトリオは言う 書いた 火曜日に。

このような強力なテクノロジーを構築するコストは、より多くの人々がテクノロジーの進歩に向けて努力するにつれて減少する一方である、と彼らは主張した。 進捗を管理するために、開発は国際原子力機関(IAEA)のような国際機関によって監督されるべきである。

IAEAは冷戦下で政府が核兵器の開発を懸念していた1957年に設立された。 同機関は原子力の規制を支援し、原子力エネルギーが軍事目的で使用されないように保障措置を設けている。

「最終的には、スーパーインテリジェンス活動のために IAEA のようなものが必要になる可能性があります。 特定の能力(またはコンピューティングなどのリソース)のしきい値を超える取り組みは、システムの検査、監査の要求、安全基準への準拠のテスト、展開の程度やセキュリティのレベルの制限などを行うことができる国際機関の規制を受ける必要があります。 " 彼らは言った。

このようなグループは、大規模で強力なモデルのトレーニングと実行に必要な、コンピューティングとエネルギーの使用量の追跡を担当します。

OpenAI の上層部は、「フロンティアにおける AI 能力の成長率は、年間一定の割合に制限されているということに全員が同意できるだろう」と示唆しました。 企業は自主的に検査に同意する必要があり、当局は国の個別の法律で定義され設定されている規制問題ではなく、「存続リスクの軽減」に焦点を当てるべきだ。

アルトマン氏は先週、企業は特定の基準を超える高度な機能を備えたモデルを構築するためのライセンスを取得すべきだという考えを上院で提案した。 。 彼の提案は、法的要件を満たすリソースを持っている可能性が低い中小企業やオープンソース コミュニティによって構築された AI システムに不当な影響を与える可能性があるため、後に批判されました。

「私たちは、ここで説明するような規制(ライセンスや監査などの面倒な仕組みを含む)なしで、企業やオープンソースプロジェクトが重大な能力の閾値を下回るモデルを開発できるようにすることが重要だと考えています」と彼らは述べた。

イーロン・マスク氏は1,000月下旬、アルトマン氏が指摘した人類への潜在的なリスクを理由にGPT4よりも強力なAIの開発と訓練をXNUMXカ月間一時停止するよう求める公開書簡に署名したXNUMX人のうちのXNUMX人だった。 確認された XNUMX月中旬にはそれが行われていました。

「強力なAIシステムは、その効果がプラスであり、リスクが管理可能であると確信した場合にのみ開発されるべきである」と書簡には述べられている。

アルファベットとグーグルのCEO、サンダー・ピチャイは週末のフィナンシャル・タイムズに次のような記事を書いた。 格言: 「AI は重要すぎて規制できないし、重要すぎて適切に規制できないと今でも信じています。」 ®

タイムスタンプ:

より多くの 登録