OpenAI 排除在选举和选民压制中的使用

OpenAI 排除在选举和选民压制中的使用

源节点: 3073710

为了打击选举中的错误信息,OpenAI 宣布了 严谨的态度 反对在竞选活动和选民压制策略中使用其生成式人工智能工具。

这一宣布是确保 2024 年众多关键选举完整性的重要一步。

也可以参考: OpenAI 与 CNN、福克斯和《时代》杂志就新闻内容许可进行谈判

通过创新和政策打击滥用行为

OpenAI 已启动一项战略,以保护其技术不被利用来操纵选举结果。该公司建立了一个专注于选举相关问题的专业团队,融合了法律、工程和政策等多个部门的专业知识。该团队的主要目标是识别并减少选举中人工智能的潜在滥用。

“我们致力于选举工作,汇集了安全系统、威胁情报、法律、工程和政策团队的专业知识。”

政治中错误信息的威胁并不新鲜,但人工智能技术的出现带来了前所未有的挑战。认识到这一点,OpenAI 正在采取积极措施。该公司计划采用红队、用户参与和安全护栏等多种技术。具体来说,他们的形象 生成工具,DALL-E, 已更新,以防止创建描绘真实人物(包括政治候选人)的图像。

“DALL·E 设有限制措施,可以拒绝要求生成真人(包括候选人)图像的请求。”

OpenAI 不断修改其用户政策,以跟上人工智能技术不断发展的格局及其潜在的滥用。其更新的安全政策现在明确限制用于政治竞选和游说的人工智能应用程序的开发。此外,还采取了措施来防止创建模仿真人或组织的聊天机器人。

提高透明度和问责制

OpenAI 战略的一个关键组成部分是为其 DALL-E 工具引入来源分类器。该功能目前处于 Beta 测试阶段,可以检测 DALL-E 生成的图像。该公司的目标是让记者、平台和研究人员可以使用该工具,以提高人工智能生成内容的透明度。

“我们计划很快将其提供给我们的第一组测试人员(包括记者、平台和研究人员)以获取反馈。”

OpenAI 还将实时新闻报道集成到 ChatGPT。这种集成旨在为用户提供准确、及时的信息,提高人工智能提供的信息来源的透明度。

OpenAI 与美国全国国务卿协会共同努力,致力于防止其技术阻碍选举参与。团队合作包括将 GPT 支持的聊天机器人用户引导至 CanIVote.org 等可靠的投票信息网站。

人工智能竞赛中竞争对手纷纷效仿

OpenAI的宣布开创了人工智能行业的先例,竞争对手包括 Google LLC 和 Meta Platforms Inc. 还采取措施打击通过其技术传播的错误信息。行业领导者的集体努力标志着人们对人工智能对民主进程的潜在影响的认识和责任不断增强。

但这就足够了吗? Pund-IT Inc. 的 Charles King 提出了一个关键点,质疑这些措施是及时的还是被动的。他认为,对人工智能产生的错误信息的担忧已经存在多年,而 OpenAI 最近的声明可能被视为太少、太晚了。这一观点引发了人们对人工智能开发者在政治格局中的角色和责任的更深入反思。

“因此,这一声明充其量表明 OpenAI 在开关上睡着了。但在最坏的情况下,这就像一种洗手仪式,当生成式人工智能在今年即将到来的全球选举期间受到关注时,OpenAI 可以指出这一点。”

时间戳记:

更多来自 元新闻