使用您自己的数据来缓解 AI 隐私问题并提高 AI 信任 | IoT Now 新闻与报告

使用您自己的数据来缓解 AI 隐私问题并提高 AI 信任 | IoT Now 新闻与报告

源节点: 3068504

由于人工智能模型能够检测模式并做出人类手动很难或不可能完成的预测,因此诸如此类的工具的潜在应用 ChatGPT 医疗保健、金融和客户服务行业规模巨大。

然而,尽管组织围绕人工智能的首要任务应该是评估生成式人工智能工具为其业务提供的竞争优势机会,但数据隐私主题已成为首要关注的问题。管理负责任地使用人工智能可能会产生有偏见的结果,需要仔细考虑。 

虽然这些模型的潜在好处是巨大的,但组织应仔细检查道德和实际考虑因素,以负责任的方式使用人工智能并提供安全可靠的人工智能数据保护。通过使用 ChatGPT 优化整体用户体验,组织可以改善他们的体验 人工智能可信度

人工智能隐私问题 

正如许多其他尖端技术一样,人工智能无疑会给那些希望将其部署到技术堆栈中的人带来一些问题和挑战。事实上,一项调查显示 进展 据透露,65% 的企业和 IT 高管目前认为各自组织中存在数据偏差,78% 的人表示,随着人工智能采用的增加,这种情况将会恶化。 

最大的隐私问题可能是与公开的内部人工智能平台一起使用私人公司数据。例如,这可能是存储机密患者数据或大公司员工工资数据的医疗保健组织。 

为了使人工智能最有效,您需要大量高质量的公共和/或私人数据样本,并且能够访问机密数据的组织(例如拥有医疗记录的医疗保健公司)在构建基于人工智能的解决方案时具有竞争优势。最重要的是,这些拥有如此敏感数据的组织必须考虑周围的道德和监管要求 数据隐私、公平性、可解释性、透明度、稳健性和可及性。  

大语言模型 (LLM) 是强大的人工智能模型,经过文本数据训练,可以执行各种自然语言处理任务,包括语言翻译、问答、摘要和情感分析。这些模型旨在以模仿人类智能的方式分析语言,使它们能够处理、理解和生成人类语音。 

使用人工智能时的私人数据风险 

然而,这些复杂的模型带来了道德和技术挑战,可能会给数据准确性、版权侵权和潜在的诽谤案件带来风险。有效使用聊天机器人人工智能的一些挑战包括: 

  • 幻觉 – 在人工智能中,幻觉是指它向用户报告充满错误的答案,而这些都太常见了。法学硕士预测下一个单词的方式使答案听起来似乎合理,但信息可能不完整或错误。例如,如果用户向聊天机器人询问竞争对手的平均收入,这些数字可能会相差很大。  
  • 数据偏差 – 法学硕士也可以展示 偏见,这意味着他们可以产生反映训练数据偏差而不是客观现实的结果。例如,在以男性为主的数据集上训练的语言模型可能会产生有关性别主题的有偏见的输出。 
  • 推理/理解 – 法学硕士可能还需要帮助来完成需要更深入推理或理解复杂概念的任务。法学硕士可以接受培训来回答需要对文化或历史有细致了解的问题。如果没有经过有效的培训和监控,模型可能会延续刻板印象或提供错误信息。 

除此之外,其他风险还包括数据中断,即模型的内存趋于过时。另一个可能的挑战是了解法学硕士如何生成其响应,因为人工智能没有经过有效的训练来显示其用于构建响应的推理。 

使用语义知识提供可信的数据 

技术团队正在寻求有关使用 ChatGPT 私人数据的帮助。尽管准确性和效率有所提高,法学硕士(更不用说他们的用户)仍然需要答案方面的帮助。特别是因为数据可能缺乏背景和意义。强大、安全、透明、受监管的人工智能知识管理解决方案就是答案。通过语义数据平台,用户可以在引入治理的同时提高准确性和效率。  

通过获得将 ChatGPT 的答案与来自语义数据平台的语义知识进行验证的组合的答案,组合结果将允许法学硕士和用户轻松访问结果并根据源内容和捕获的 SME 知识进行事实检查。 

这使得人工智能工具能够存储和查询结构化和非结构化数据,并通过其直观的 GUI 捕获主题专家 (SME) 的内容。通过提取数据中发现的事实并使用语义知识标记私有数据,用户问题或输入以及特定的 ChatGPT 答案也可以使用这些知识进行标记。  

保护敏感数据可以释放人工智能的真正潜力 

与所有技术一样,对于法学硕士而言,防范意外输入或情况更为重要。在成功应对这些挑战的过程中,我们解决方案的可信度将随着用户满意度的提高而提高,最终导致解决方案的成功。 

作为探索在组织中使用人工智能的第一步,IT 和安全专业人员必须寻找保护敏感数据的方法,同时利用它来优化组织及其客户的结果。 

Matthieu Jonglez,Progress 技术应用和数据平台副总裁。Matthieu Jonglez,Progress 技术应用和数据平台副总裁。

文章作者:Matthieu Jonglez,应用程序和数据平台技术副总裁 进步ss。

在下面或通过X评论这篇文章: @IoTNow_

时间戳记:

更多来自 物联网现在