英国、AI白書に規制テストで対応へ

英国、AI白書に規制テストで対応へ

ソースノード: 3070094

英国政府は、安全性と業界の成長に焦点を当てた、新しい AI 法のテストを公表する予定です。 AI安全協会は、OpenAIやGoogleなどのAI企業による安全上のリスクやコンプライアンス違反によって規制が発動される役割を果たすことになる。

フィナンシャル・タイムズ紙によると、これらの法律は、急速に発展するテクノロジーに対するより厳しい規制体制の創設に抵抗するという政府の焦点と一致している。英国の閣僚は今後数週間以内に、グーグルやオープンAIなどの企業が作成した強力な人工知能(AI)モデルに対する制限を制定する状況を明記した基準を公表する予定だ。

  イギリス政府 これを監視するシステムを導入しました。これは、学者や学習の専門家で構成される団体である AI Safety Institute です。 AI 安全性研究所がテクノロジーに関するリスクを特定できなかった場合、介入が開始されます。法律制定のきっかけとなり得るもう一つの試練は、AI企業が危害を避けるための自発的な約束を守らないかどうかだ。

英国政府の AI へのアプローチ

政府が発表した声明では、英国政府の AI 規制に対する軽いアプローチが、これらのテストの公開に反映されることが確認されています。声明によると、リスクを軽減し、安全かつ責任ある行動をサポートするための措置を講じるという。 AI技術 要求に応じ。声明は続けて、市民社会や業界と緊密に協議し、イノベーション推進のアプローチを維持すると述べた。

その結果、この哲学は、英国政府が提案するAI法案を可決するための「テスト」を通過することになるが、その際には、いかなる新たな法律も理由なくイノベーションを阻害しないという条件が付けられている。

このテストは、2023 年 XNUMX 月に発行される政府の AI 白書に向けた協議プロセスの一環として公開される予定であると理解されています。

この白書には批判がなかったわけではない。バーミンガム大学教授で博士号取得候補者のエマ・アーメド・レンジャーズ氏であるカレン・ヨン氏は、この文書は健全な政策の根拠としては不十分だと述べた。彼らは、この文書は国民の利益にかなう効果的かつ合法的な規制枠組みの基礎として機能することはできないと付け加えた。

しかし、英国におけるAIの規制が分野別の規制当局によって取り上げられ始めていると指摘する人もいる。これには、Ofcom と情報コミッショナー局が含まれており、管轄区域でアルゴリズム監査の実施を開始しています。

英国は国際的に AI 規範に積極的

OpenAI、Google、DeepMind、Microsoft、Meta などの AI 企業は 11 月にいくつかの自主ポリシーに署名しました。彼らは、英国政府が主催する世界規模の AI 安全性サミットの一環として、自社製品の安全性を懸念しています。

これらの企業は、 英国の AI 安全性協会 次のような製品を製造するモデルの安全性を評価するため AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 企業や消費者が使用する前に。

したがって、これらのモデルの評価は進行中ですが、どのように実施されるかはまだ不明です。また、AI企業が包括的なアクセスを提供するかどうかも不透明だ。政府関係者によると、現時点では双方の善意に頼っているため幸運だという。同関係者は続けて、これらのモデルの評価は性格やCEOに依存すると述べた。

タイムスタンプ:

より多くの メタニュース