OpenAI 呼吁全球机构监管超级智能

OpenAI 呼吁全球机构监管超级智能

源节点: 2674707

GPT-4 制造商 OpenAI 的高管表示,一个国际机构应该负责检查和审计通用人工智能,以确保该技术对人类安全。

首席执行官 Sam Altman 和联合创始人 Greg Brockman 和 Ilya Sutskever 表示,“可以想象”人工智能将在未来十年内获得超越人类的非凡能力。

“就潜在的优势和劣势而言,超级智能将比人类过去不得不应对的其他技术更强大。 我们可以拥有一个更加繁荣的未来; 但我们必须管理风险才能到达那里,”三人组 周二。

他们认为,随着越来越多的人致力于推进这项技术,构建这种强大技术的成本只会降低。 为了控制进度,开发应由国际原子能机构(IAEA)等国际组织监督。

国际原子能机构成立于 1957 年,当时各国政府担心在冷战期间会研制出核武器。 该机构帮助监管核能,并制定保障措施以确保核能不被用于军事目的。

“我们可能最终需要像 IAEA 这样的机构来进行超级情报工作; 任何超过特定能力(或资源,如计算)阈值的努力都需要接受国际权威机构的审查,该机构可以检查系统、要求审计、测试是否符合安全标准、对部署程度和安全级别施加限制等, “ 他们说。

这样一个小组将负责跟踪计算和能源使用,以及训练和运行大型强大模型所需的重要资源。

OpenAI 的高层建议说:“我们可以共同同意,前沿 AI 能力的增长速度被限制在每年一定的速度。” 公司必须自愿同意检查,而该机构应将重点放在“降低存在风险”上,而不是一个国家/地区的个别法律定义和设定的监管问题。

上周,奥特曼在参议院提出了公司应该获得许可来构建具有超过特定门槛的高级功能的模型的想法 听力. 他的建议后来受到批评,因为它可能不公平地影响较小公司或不太可能拥有满足法律要求的资源的开源社区构建的人工智能系统。

“我们认为,重要的是允许公司和开源项目开发低于重要能力阈值的模型,而无需我们在此描述的那种监管(包括繁琐的机制,如许可或审计),”他们说。

埃隆·马斯克 (Elon Musk) 在 1,000 月下旬是一封公开信的 4 名签名者之一,这封公开信呼吁暂停开发和培训比 GPTXNUMX 更强大的人工智能,因为它对人类构成潜在风险,奥特曼对此表示 确认 在四月中旬它正在做。

“只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统,”信中说。

Alphabet 和谷歌首席执行官 Sundar Pichai 周末在英国《金融时报》撰文称, :“我仍然相信 AI 太重要了,不能不去监管,太重要了,不能好好监管”。 ®

时间戳记:

更多来自 注册