専門家は今すぐ行動を起こさなければAIによる絶滅を警告

専門家は今すぐ行動を起こさなければAIによる絶滅を警告

ソースノード: 2688105

AIの普及について、またもや絶望的な公開書簡が届いた。 今回は、広範なテクノロジーリーダー、機械学習の著名人、さらには少数の著名人が署名し、人工知能によってもたらされる絶滅レベルの脅威とされるものをより真剣に受け止めるよう世界に訴えています。 

より適切な声明は、AI の先駆者などの個人が署名した AI 安全センター (CAIS) からのメッセージです。 ジェフリーヒントン、OpenAI CEO サム・アルトマン、暗号化の第一人者マーティン・ヘルマン、マイクロソフト CTO ケビン・スコットらは、 単一の宣言文 それが無視されれば黙示録を予言する:

「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきです。」 

なぜそんなに短いのでしょうか? その目標は、「AI 絶滅のリスクを懸念する AI 科学者、技術リーダー、教授の広範かつ成長を続ける連携を実証すること」でした。 有益な政策議論ができるよう、利害関係について広く認識してもらう必要がある」とCAIS所長のダン・ヘンドリックス氏は語った。 登録.

CAIS はその中で汎用人工知能 (AGI) について言及していない。 AIリスクのリスト、私たちは注目します。 また、ChatGPT などの現世代のモデルは人類に対する終末的な脅威ではないとヘンドリックス氏は語った。 今週の警告は、次に何が起こるかについてのものです。

「この声明で言及されている壊滅的な脅威の種類は、将来の高度な AI システムに関連しています」とヘンドリックス氏は述べました。 同氏は、「終末的な脅威」のレベルに達するために必要な進歩は、数十年ではなく、わずか10~XNUMX年先になる可能性があると付け加えた。 「今から準備をする必要がある。 しかし、壊滅的な結果を引き起こす可能性のある AI システムは AGI である必要はありません」と彼は言いました。 

人間はとにかく平和だから

そのようなもの 脅威 兵器化とは、化学兵器や生物兵器の開発に創薬ボットを使用したり、機械ベースの戦闘に強化学習を使用したりするなど、誰かが善意の AI を再利用して非常に破壊的なものにできるという考えです。 そうは言っても、人間はすでに、人、近所、都市、国を滅ぼすことができるその種の兵器を製造する能力を十分に備えています。

AIは個人や社会の価値観に関係なく目標を追求するように訓練される可能性もある、と私たちは警告している。 それは人間を「弱体化」させ、最終的には自動化された機械にスキルや能力を譲渡し、AIの制御者と自動化によって追放された者との間の力の不均衡を引き起こしたり、意図的または意図的に偽情報を広めるために利用されたりする可能性がある。 さもないと.

繰り返しになりますが、それに関与する AI はどれも汎用的である必要はなく、現世代の AI が進化して CAIS が懸念しているようなリスクを引き起こす可能性があることは、それほど無理のあることではありません。 あなたは、そのソフトウェアがどれほど本当に破壊的であるか、またはどの程度の能力を発揮する可能性があるか、あるいは実際に何を達成できるかについて、独自の意見を持っているかもしれません。

CAISの主張では、すでに感じられているAIの悪影響を調査して対処し、それらの現存する影響を予見に変えることが重要だという。 「私たちが差し迫ったAIリスクに取り組む中、世界中のAI業界と政府は、将来のAIが人類の存在に脅威を与える可能性があるというリスクにも真剣に向き合う必要がある」とヘンドリックス氏は述べた。 声明インチ

「世界は核戦争に関連するリスクを軽減するために協力することに成功しました。 将来の AI システムによってもたらされる危険に対処するには、同じレベルの努力が必要です」とヘンドリックス氏は、企業、学術界、思想的リーダーのリストとともに主張しました。 

マスク氏は参加していない

他の署名者には、Google DeepMindの主任科学者イアン・グッドフェロー、哲学者のデイビッド・チャーマーズとダニエル・デネット、作家兼ブロガーのサム・ハリス、ミュージシャン/イーロン・マスクの元グライムスが含まれる。 彼自身について言えば、マスクのサインはありません。 

TwitterのCEO ました 署名した人の中には 公開書簡 Future of Life Institute が今年 XNUMX 月に発表した論文は、 XNUMXヶ月の休止 「GPT-4よりも強力な」AIシステムのトレーニングについて。 当然のことながら、OpenAI CEO アルトマンの署名はありませんでした。 それ 表向きには、それが彼の会社に直接呼びかけたからである。 

OpenAIはその後、 独自の警告 先進的なAIがもたらす脅威について訴え、AIの使用を規制するための国際原子力機関に似た世界的な監視機関の設立を求めた。

その警告と規制の呼びかけは、歴史的にタイミングが悪かったものの、アルトマン氏と同じ日に行われた。 脅し OpenAI とそれを使用した ChatGPT を EU からブロックを介して引き出すこと AI法。 彼が支持するルールは一つのことだが、アルトマン氏はブリュッセルに対し、AI制限という考えは規制上の架け橋になりすぎている、ありがとうと語った。 

EU国会議員 回答 OpenAIの指示には従わないと述べ、同社が基本的なガバナンスと透明性の規則を遵守できない場合、「彼らのシステムは欧州市場に適合しない」とオランダの国会議員キム・ファン・スパレンタク氏は断言した。 

私たちは OpenAI にアルトマン氏の立場についての説明を求めており、返答があればこの記事を更新する予定です。 ®

タイムスタンプ:

より多くの 登録