平衡 AI:行善避免伤害 - IBM 博客

平衡 AI:行善避免伤害 – IBM 博客

源节点: 3084303


平衡 AI:行善避免伤害 – IBM 博客




从小到大,父亲总是说:“行善”。当我还是个孩子的时候,我认为这是令人尴尬的语法,我会纠正他,坚持认为应该是“做得好”。就连我的孩子们在听到他的“行善”建议时也会取笑我,我承认我让他在语法方面通过了。

就负责任的人工智能 (AI) 而言,组织应优先考虑避免伤害的能力作为核心关注点。一些组织可能还希望利用人工智能来“做好事”。然而,有时人工智能需要明确的护栏才能让人们同意“好”。

阅读“Presidio AI 框架”论文,了解如何在扩展的 AI 生命周期中通过防护措施解决生成式 AI 风险

As 生成式人工智能 继续成为主流,组织对转变流程、降低成本和增加业务价值的潜力感到兴奋。企业领导者渴望重新设计他们的业务战略,以更好地为客户、患者、员工、合作伙伴或公民提供更高效的服务,并改善整体体验。生成式人工智能正在为全球组织打开大门并创造新的机遇和风险,而人力资源 (HR) 领导力在应对这些挑战方面发挥着关键作用。

适应人工智能采用增加的影响可能包括遵守复杂的监管要求,例如 NIST是, 欧盟人工智能法案, NYC 144, 美国EEOC 白宫人工智能法案,这直接影响人力资源和组织政策,以及社会、工作技能和集体谈判劳工协议。采用负责任的人工智能需要多利益相关者战略,这一点得到了包括 NIST、 经合组织是, 负责的人工智能研究所是, 数据与信任联盟IEEE.

这不仅仅是一个 IT 角色;更是一个 IT 角色。人力资源发挥着关键作用

考虑到人工智能和其他技术,人力资源领导者现在为企业提供有关当前工作所需的技能以及未来技能的建议。 据世界经济论坛称,雇主估计未来 44 年内 5% 的工人技能将被破坏。 人力资源专业人员越来越多地探索通过增强员工的工作并让他们专注于更高级别的工作来提高生产力的潜力。随着人工智能能力的扩展,每个企业领导者都必须考虑道德问题,这样他们的人工智能使用就不会以牺牲员工、合作伙伴或客户的利益为代价。

了解 IBM 为组织推荐的信任和透明度原则,以负责任地将 AI 集成到其运营中.

工人教育和知识管理现在作为一项多利益相关者战略与 IT、法律、合规和业务运营商紧密协调,作为一个持续的过程,而不是每年一次的复选框。因此,人力资源领导者需要自然地参与制定计划,以制定政策并提高员工的人工智能敏锐度,确定在何处应用人工智能功能,建立负责任的人工智能治理策略,以及 使用人工智能和自动化等工具 通过值得信赖和透明的人工智能采用,帮助确保对员工的体贴和尊重。 

在组织内采用人工智能道德的挑战和解决方案

尽管人工智能的采用和用例不断扩大,但组织可能尚未充分准备好应对在其流程和系统中采用人工智能功能的许多考虑因素和后果。虽然 79% 的受访高管强调人工智能道德在企业范围内的人工智能方法中的重要性,但只有不到 25% 的高管实施了人工智能道德的共同原则, 根据 IBM 商业价值研究院的研究.

之所以存在这种差异,是因为政策本身无法消除数字工具的流行和使用的增加。员工在未经适当批准的情况下越来越多地使用智能设备和应用程序(例如 ChatGPT 或其他黑匣子公共模型)已成为一个持续存在的问题,并且不包括正确的变更管理来告知员工相关风险。 

例如,工作人员可能会使用这些工具使用敏感的客户数据向客户编写电子邮件,或者经理可能会使用它们编写披露个人员工数据的绩效评估。 

为了帮助降低这些风险,在每个部门、业务单位和职能级别中嵌入负责任的人工智能实践焦点或倡导者可能会有所帮助。这个例子可以成为人力资源部门推动和倡导阻止潜在道德挑战和运营风险的机会。

最终,创建一个 负责任的人工智能 具有共同价值观和原则的战略必须与公司更广泛的价值观和业务战略相一致,并传达给所有员工。该战略需要为员工提供支持,并为组织寻找拥抱人工智能和创新的机会,从而推动业务目标向前发展。它还应该协助员工进行教育,以帮助防范人工智能的有害影响,解决错误信息和偏见,并在内部和社会内促进负责任的人工智能。

采用负责任的人工智能的三大考虑因素

企业和人力资源领导者在制定负责任的人工智能战略时应牢记的三大考虑因素是:

让人才成为您战略的核心

换句话说,在制定先进技术战略时,请优先考虑您的人员。这意味着确定人工智能如何与员工合作,专门向这些员工传达人工智能如何帮助他们在自己的角色中脱颖而出,并重新定义工作方式。如果没有接受教育,员工可能会过度担心人工智能会取代他们或消除劳动力。直接与员工诚实地沟通这些模型是如何构建的。人力资源领导者应该解决潜在的工作变化,以及人工智能和其他技术创造的新类别和工作的现实。

实现既考虑所采用的技术又考虑企业的治理

人工智能并不是一个整体。组织可以通过多种方式部署它,因此他们必须明确定义负责任的人工智能对他们意味着什么,他们计划如何使用它以及如何避免使用它。无论是否涉及生成式人工智能,都应在每个人工智能用例中考虑和设计与 OECD 或 RAII 指南一致的透明度、信任、公平、公平、稳健性和使用多元化团队等原则。此外,应对每个模型以及特定的多样性、公平性和包容性指标进行模型漂移和隐私措施的例行审查,以减轻偏差。

确定并调整工作所需的正确技能和工具

现实情况是,一些员工已经在尝试使用生成式人工智能工具来帮助他们执行回答问题、起草电子邮件和执行其他日常任务等任务。因此,组织应立即采取行动,传达使用这些工具的计划,为使用这些工具的员工设定期望,并帮助确保这些工具的使用符合组织的价值观和道德规范。此外,组织应该提供技能发展机会,帮助员工提高人工智能知识并了解潜在的职业道路。

下载“释放生成式 AI 的价值”论文,获取有关您的组织如何负责任地采用 AI 的更多指导

实践负责任的人工智能并将其集成到您的组织中对于成功采用至关重要。 IBM 将负责任的人工智能作为其人工智能方法的核心 与客户和合作伙伴。 2018 年,IBM 成立了人工智能道德委员会,作为一个跨学科的中央机构,以支持道德、负责任和值得信赖的人工智能文化。它由来自研究、业务部门、人力资源、多元化和包容性、法律、政府和监管事务、采购和传播等各个部门的高级领导组成。董事会指导并执行与人工智能相关的举措和决策。 IBM 认真对待人工智能的好处和挑战,将责任融入到我们所做的每一件事中。

我会允许我父亲遵守这一违反的语法规则。如果管理得当,在许多人、护栏、监督、治理和人工智能道德框架的参与下,人工智能可以“做好事”。 

观看网络研讨会,了解如何让您的企业为负责任的人工智能采用做好准备

探索 IBM 如何帮助客户完成人才转型之旅

本文是否有帮助?

没有


更多来自人工智能




人工智能多样性的重要性不是观点,而是数学

5 阅读分钟我们都希望看到我们理想的人类价值观反映在我们的技术中。我们希望人工智能 (AI) 等技术不会欺骗我们、不会歧视我们,并且能够安全地供我们和我们的孩子使用。然而,许多人工智能创造者目前因模型中暴露的偏见、不准确和有问题的数据实践而面临强烈反对。这些问题需要的不仅仅是技术、算法或基于人工智能的解决方案。事实上,需要一种整体的、社会技术的方法。……




保险公司如何与 IBM 合作实施基于人工智能的生成解决方案

7 阅读分钟IBM 通过不同方面与我们的保险客户合作,IBM 商业价值研究院 (IBV) 的数据确定了指导保险公司管理决策的三个关键要素: 采用数字化转型,使保险公司能够提供新产品、推动收入增长并改善客户体验经验。提高核心生产力(业务和 IT),同时降低成本。利用安全的混合云和人工智能拥抱增量应用程序和数据现代化。保险公司必须满足以下关键要求,以促进其转型……




释放聊天机器人的力量:为企业和客户带来的主要好处

6 阅读分钟聊天机器人可以立即响应使用音频输入、文本输入或两者组合的请求,从而帮助您的客户和潜在客户快速查找或输入信息,从而无需人工干预或手动研究。聊天机器人无处不在,提供客户服务支持,并为在家中使用智能扬声器、短信、WhatsApp、Facebook Messenger、Slack 和众多其他应用程序的员工提供帮助。最新的人工智能 (AI) 聊天机器人,也称为智能虚拟助理或虚拟代理,不仅......




加入我们,走在商业人工智能的最前沿:Think 2024

<1 阅读分钟您希望使用 AI 来提高企业的生产力和创新能力。您需要超越实验而扩大规模。你必须快速行动。加入我们在波士顿参加 Think 2024,这是一次独特而引人入胜的体验,无论您身在何处,都将指导您踏上人工智能商业之旅。从通过深思熟虑的混合云方法构建人工智能准备,到跨核心业务功能和行业需求扩展人工智能,再到将人工智能嵌入……

IBM 时事通讯

获取我们的时事通讯和主题更新,提供最新的思想领导力和对新兴趋势的见解。

现在订阅

更多新闻通讯

时间戳记:

更多来自 IBM 物联网