米国、英国、その他の国が「安全な設計」AI ガイドラインを策定

米国、英国、その他の国が「安全な設計」AI ガイドラインを策定

ソースノード: 2979839

米国、英国、オーストラリア、その他 15 か国は、AI モデルを改ざんから保護するための世界的なガイドラインを発表し、企業に自社のモデルを「安全な設計」にするよう求めています。

26月18日、20カ国はXNUMXページにわたる報告書を発表した。 ドキュメント AI企業はAIモデルを開発または使用する際にサイバーセキュリティにどのように対処すべきかを概説し、ペースの速い業界では「セキュリティは二の次の考慮事項になり得る」と主張した。

このガイドラインは、AI モデルのインフラストラクチャに対する厳重な管理、リリース前後のモデルの改ざんの監視、サイバーセキュリティ リスクに関するスタッフのトレーニングなど、ほとんど一般的な推奨事項で構成されていました。

AI 分野での特定の物議を醸す問題については言及されていません。これには、AI の使用に関してどのような制御が必要かなども含まれます。 画像生成モデルとディープフェイク またはデータ収集方法とトレーニングモデルでの使用 - 見られる問題 複数のAI企業が訴訟を起こした 著作権侵害の申し立てについて。

アレハンドロ・マヨルカス米国国土安全保障長官は、「私たちは人工知能の開発の転換点にあり、人工知能はおそらく現代で最も重要な技術となるだろう」と語った。 声明で。 「サイバーセキュリティは、安全、安心、信頼できる AI システムを構築するための鍵です。」

関連する EUテクノロジー連合、EU AI法の完成前にAIの過剰規制を警告

このガイドラインは、政府や AI 企業など、AI に影響を与える他の政府の取り組みに従っています。 AIセーフティサミットのミーティング AI開発に関する合意を調整するため、今月初めにロンドンで会合を行った。

一方、欧州連合は、 詳細をハッシュ化する 宇宙を監督するAI法の制定と、ジョー・バイデン米国大統領が10月にAIの安全性とセキュリティの基準を定める大統領令を出したが、それは両方とも 反発を見てきました AI業界はイノベーションを抑制する可能性があると主張している。

新しい「安全な設計」ガイドラインの他の共同署名者には、カナダ、フランス、ドイツ、イスラエル、イタリア、日本、ニュージーランド、ナイジェリア、ノルウェー、韓国、シンガポールが含まれます。 OpenAI、Microsoft、Google、Anthropic、Scale AI などの AI 企業もガイドラインの開発に貢献しました。

マガジン: AI Eye: 暗号通貨における AI の実際の用途、Google の GPT-4 のライバル、不良従業員向けの AI エッジ

タイムスタンプ:

より多くの 合同グラフ