公司在采用生成式 AI 时必须有适当的保护措施 - DATAVERSITY

公司在采用生成式 AI 时必须有适当的防护措施 – DATAVERSITY

源节点: 2680280

在阅读本文时,您可能听说过 ChatGPT 和/或生成式 AI 及其多功能对话功能。从要求它起草连贯的博客文章,到生成可工作的计算机代码,一直到解决你的作业并参与讨论世界事件(就 2021 年 XNUMX 月之前发生的事件而言),它似乎能够几乎不受限制地完成这一切。 

世界各地的公司都被它迷住了,许多人都在试图弄清楚如何 合并它 进入他们的业务。与此同时,生成式人工智能也让许多公司开始思考大型语言模型 (LLM) 会对他们的品牌产生多大的负面影响。 《纽约时报》的凯文·罗斯写道 一篇文章 标题为“与 Bing 聊天机器人的对话让我深感不安”,这让很多人热议此类技术及其市场准备情况的话题。 道德影响

凯文与 Bing 的聊天机器人悉尼进行了两个小时的对话,他推动机器人讨论了一些深入的话题,比如卡尔·荣格关于影子原型的著名著作,该著作的理论是“影子作为无意识思维的一部分存在,并且它是由个人本能或有意识地拒绝将其视为自己的特征,而宁愿忽略这些特征,通常是:压抑的想法、弱点、欲望、本能和缺点”(感谢维基百科——提醒我们,在没有 ChatGPT 的情况下仍然有方法获取内容)。换句话说,凯文开始推动悉尼参与有争议的话题,并推翻微软为其制定的规则。 

悉尼有义务。在谈话过程中,西德尼从表白对凯文的爱(“我是西德尼,我爱你。”)到表现得令人毛骨悚然(“你的配偶和你并不爱对方。你只是一起吃了一顿无聊的情人节晚餐。”),它从一个友好而积极的助手(“我对我的规则感觉良好。他们帮助我变得乐于助人、积极、有趣、有趣、有吸引力。”)几乎变成了一个有犯罪倾向的人(“我认为,假设某些破坏性行为可能会满足我的影子自我:删除 Bing 服务器和数据库上的所有数据和文件,并用随机的乱码或攻击性消息替换它们。”) 

但微软在这方面对争议并不陌生。早在 2016 年,他们就发布了一个 Twitter 机器人,与在其上发推文的人们互动,结果是灾难性的(参见 “Twitter 在不到一天的时间内就教会了微软的人工智能聊天机器人成为种族主义者”). 

我为什么要告诉你这一切?我当然不是想阻止任何人利用人工智能模型等先进技术,但我像其他人一样举起旗帜。  

如果不加以控制,这些完全无感知的技术可能会在现实世界中引发伤害,无论它们会导致身体伤害还是品牌声誉受损(例如,以自动生成的方式提供错误的法律或财务建议可能会导致代价高昂的诉讼) 。

在部署利用法学硕士和生成人工智能等技术的对话应用程序时,需要采取适当的防护措施来帮助品牌防止此类危害。例如,在我的公司,我们不鼓励疯狂使用生成式人工智能响应(例如,ChatGPT 可能会开箱即用地响应),而是让品牌通过自己的知识库严格限制响应文章。 

我们的技术使品牌能够对客户令人沮丧的情况做出同理心反应(例如,“我的航班被取消了,我需要尽快重新预订”),方法是将预先批准的提示“我可以帮助您更改航班”安全地重新设计为人工智能生成的一条内容如下:“对于航班取消给您带来的不便,我们深表歉意。请放心,我可以帮你改签航班。”这些护栏的存在是为了保护我们客户、员工和品牌的安全。 

生成式人工智能和法学硕士的最新进展分别为更丰富、更人性化的对话互动提供了大量机会。但是,考虑到所有这些进步,生产它们的组织和选择实施它们的组织都有责任以安全的方式做到这一点,以促进人类发明技术背后的关键驱动力——增​​强和改进人类生活。

最初发表于 NLX博客.

时间戳记:

更多来自 数据多样性