インド首相の顧問ら、AIが「集団統合失調症」を引き起こす可能性があると発言

インド首相の顧問ら、AIが「集団統合失調症」を引き起こす可能性があると発言

ソースノード: 3091579

インドの首相経済諮問委員会(EACPM)は、現在の世界的なAI規制は効果がない可能性が高いと警告する文書を作成し、金融市場で使用されているような代替戦術でテクノロジーを規制することを推奨した。

評議会はAIについて非常に懸念しています。その文書は、「監視、説得力のあるメッセージング、合成メディアの生成を組み合わせることで、悪意のある AI が情報エコシステムをますます制御し、カスタマイズされた欺瞞的な現実を捏造して人間の行動を強制し、集団統合失調症を誘発する可能性さえある」と警告しています。

この団体は、米国の AI へのアプローチはあまりにも介入的であると批判し、英国はイノベーション推進と自由放任主義でリスクをもたらしていると批判し、EU の AI 規則は、ブロックの加盟国が分裂し、異なる強調点と応用を採用しているために欠陥があると批判している。強制措置。

同文書はまた、「新型コロナウイルス感染症の感染源が研究室から漏洩した可能性が高い」ことから分かるように、「全能の集中官僚制度」による規制を行う中国の傾向には欠陥があるとも主張している。

皆さん、私たちはここでは鏡越しに見ています。

(記録のために書いておきますが、米国国家情報長官室は 兆候は見つかりませんでした ウイルスは中国の研究所から漏洩したということ)

しかし、私たちは脱線します。

同評議会は、AI を「フィードバック ループ、相転移、初期条件への敏感性を通じて [進化する] 分散型自己組織化システム」とみなすことを提案し、そのようなシステムの他の例として、金融市場で見られる非線形エンティティやアリのコロニーの行動などを想定しています。 、またはトラフィック パターン。

「AI の非線形で予測不可能な性質のため、従来の方法では不十分です。 AI システムは、コンポーネントが相互作用し、予測不可能な方法で進化する複雑適応システム (CAS) に似ています。」 説明 [PDF] 協議会。

AI システムがもたらすリスクを事前に知ることは不可能であり、その動作はあまりにも多くの要因の結果であるため、評議会は「事前」対策に頼ることには熱心ではありません。

したがって、この文書はインドが次の 5 つの規制措置を採用することを提案しています。

  • ガードレールやパーテーションの設置これにより、AI テクノロジーが意図された機能を超えたり、核武装の意思決定などの危険な領域に侵入したりしないようにする必要があります。あるシステム内のガードレールを何らかの方法で突破した場合、それが広がらないようにパーティションが存在します。
  • 手動オーバーライドと認可チョークポイントの確保 人間の意思決定者のための多要素認証と多層レビュープロセスによって人間を制御し、安全を保ちます。
  • 透明性と説明可能性 これには、監査に適した環境を促進するためのコアアルゴリズムのオープンライセンス、定期的な監査と評価、標準化された開発文書などの措置が含まれます。
  • 明確な責任 事前定義された責任プロトコル、義務付けられた標準化されたインシデント報告、および調査メカニズムを通じて。
  • 専門の規制機関の制定幅広い権限を与えられ、フィードバック主導のアプローチを採用し、AI システムの動作を監視および追跡し、自動警報システムを統合し、国家登録簿を確立します。

同評議会は、そのアイデアを実現する方法について他の CAS システム、主に金融市場にアイデアを求めることを推奨しました。

文書では「金融市場のような混沌としたシステムを管理することから得た洞察は、複雑なテクノロジーに対する実現可能な規制アプローチを示している」と述べ、専用のAI規制当局がインドのSEBIや米国のSECなどの金融規制当局をモデルにできる可能性があることを示唆している。

市場が危機に陥ったときにこれらの機関が取引停止を課すのと同じように、規制当局も同様の「チョークポイント」を採用し、AIが窮地に陥る可能性がある。強制的な財務報告は、AI オペレーターが提出を求められる可能性のある種類の開示の良いモデルです。

著者らの懸念は、AI の普及の増大とその仕組みの不透明さによって、重要なインフラ、防衛作戦、その他多くの分野が危険にさらされていることを意味しているという考えによって煽られています。

彼らが概説する危険性の中には、システムが人間の制御を超えて再帰的に自己改善し、「人間の福祉と乖離」する可能性がある「AIの暴走」や、「わずかな変更が重大な予期せぬ結果につながる可能性がある」シナリオであるバタフライ効果などが挙げられる。

「したがって、利益を最大化することを目的とした、アルゴリズム、トレーニングセット、モデルに対する不透明な国家管理システムは、壊滅的な結果を招く可能性がある」と評議会は警告した。

この文書では、提案されている規制は、一部のシナリオを除外する必要があることを意味する可能性があると指摘しています。

「あらゆるものを超接続したインターネットを決して許可することはできないかもしれない」と評議会は認めている。しかし、人類は強力な規制から得るものがさらにあるかもしれないと結論づけています。

「AI ツールを作成している人は、想定外の結果を理由に簡単に解雇されることはなく、事前に「ゲームにスキンを追加」する必要があります。人間はオーバーライドと承認の権限を保持します。定期的に義務付けられた監査では、説明可能性を徹底する必要がある。」 ®

タイムスタンプ:

より多くの 登録