宣布新工具和功能以实现负责任的人工智能创新 | 亚马逊网络服务

宣布新工具和功能以实现负责任的人工智能创新 | 亚马逊网络服务

源节点: 2994256

生成式人工智能的快速发展带来了充满希望的新创新,同时也提出了新的挑战。这些挑战包括在生成人工智能之前常见的一些挑战,例如偏见和可解释性,以及 基础模型独有的新功能 (FM),包括幻觉和中毒。在 AWS,我们致力于 负责任地开发生成式人工智能, 采取以人为本的方法,优先考虑教育、科学和客户,将负责任的人工智能集成到整个端到端人工智能生命周期中。

在过去的一年里,我们在生成式人工智能应用程序和模型中引入了新功能,例如内置安全扫描 亚马逊 CodeWhisperer,检测和阻止有害内容的培训 亚马逊泰坦,以及数据隐私保护 亚马逊基岩。我们对安全、透明和负责任的生成人工智能的投资包括与全球社区和政策制定者的合作,因为我们鼓励和支持 白宫自愿人工智能承诺人工智能安全峰会 在英国。我们继续与客户携手合作,通过专用工具(例如 亚马逊SageMaker澄清, 使用 Amazon SageMaker 进行机器学习治理等等。

引入新的负责任的人工智能创新

随着生成式人工智能扩展到新的行业、组织和用例,这种增长必须伴随着对负责任的 FM 开发的持续投资。客户希望他们的 FM 在构建时考虑到安全性、公平性和安全性,以便他们能够负责任地部署人工智能。在今年的 AWS re:Invent 上,我们很高兴宣布推出新功能,通过新的内置工具、客户保护、提高透明度的资源以及打击虚假信息的工具,通过广泛的功能促进负责任的生成式 AI 创新。我们的目标是为客户提供所需的信息,以根据关键的负责任的人工智能考虑因素(例如毒性和鲁棒性)评估 FM,并引入护栏以根据客户用例和负责任的人工智能政策应用保护措施。与此同时,我们的客户希望在自己的组织内使用人工智能服务和 FM 时,更好地了解它们的安全性、公平性、保密性和其他属性。我们很高兴宣布提供更多资源,帮助客户更好地了解我们的 AWS AI 服务并提供他们所需的透明度。

实施保障措施:Amazon Bedrock 的 Guardrails

在大规模引入生成式人工智能时,安全是首要任务。组织希望促进客户与生成式人工智能应用程序之间的安全交互,避免有害或冒犯性语言并符合公司政策。最简单的方法是在整个组织内实施一致的保障措施,以便每个人都可以安全地进行创新。昨天我们发布了预览版 亚马逊基岩护栏- 一项新功能,可以根据客户用例和负责任的人工智能策略轻松实施特定于应用程序的保护措施。

Guardrail 可以提高 Amazon Bedrock 上的 FM 对应用程序中不良和有害内容的响应方式的一致性。客户可以将护栏应用于 Amazon Bedrock 上的大型语言模型以及微调模型,并与 亚马逊基岩代理。 Guardrails 允许您指定要避免的主题,并且该服务会自动检测并阻止属于受限类别的查询和响应。客户还可以跨类别配置内容过滤阈值,包括仇恨言论、侮辱、性语言和暴力,以将有害内容过滤到所需的级别。例如,可以设置在线银行应用程序来避免提供投资建议并限制不适当的内容(例如仇恨言论、侮辱和暴力)。在不久的将来,客户还可以编辑用户输入和 FM 响应中的个人身份信息 (PII),设置脏话过滤器,并提供自定义单词列表来阻止用户和 FM 之间的交互,从而提高合规性并进一步保护用户。借助 Guardrails,您可以利用生成式 AI 更快地进行创新,同时保持与公司政策一致的保护和保障措施。

确定特定用例的最佳 FM:Amazon Bedrock 中的模型评估

如今,组织拥有广泛的 FM 选项来为其生成式 AI 应用程序提供支持。为了在用例的准确性和性能之间取得适当的平衡,组织必须有效地比较模型,并根据对他们来说很重要的关键负责任的人工智能和质量指标找到最佳选择。为了评估模型,组织必须首先花几天时间确定基准、设置评估工具并运行评估,所有这些都需要深厚的数据科学专业知识。此外,这些测试对于评估主观标准(例如品牌声音、相关性和风格)没有用处,因为主观标准需要通过繁琐、耗时的人工审核工作流程进行判断。对于每个新用例,这些评估所需的时间、专业知识和资源使得组织很难根据负责任的人工智能维度评估模型,并就哪种模型将为客户提供最准确、最安全的体验做出明智的选择。

现已推出预览版, Amazon Bedrock 上的模型评估 帮助客户根据自定义指标(例如准确性和安全性)使用自动或人工评估来评估、比较和选择适合其特定用例的最佳 FM。在 Amazon Bedrock 控制台中,客户可以选择他们想要针对给定任务(例如问答或内容摘要)进行比较的 FM。对于自动评估,客户选择预定义的评估标准(例如准确性、稳健性和毒性)并上传自己的测试数据集或从内置的公开可用数据集中进行选择。对于需要判断的主观标准或细微内容,客户只需点击几下即可轻松设置基于人工的评估工作流程。这些工作流程利用客户的内部工作团队,或使用 AWS 提供的托管劳动力来评估模型响应。在基于人的评估过程中,客户定义特定于用例的指标(例如相关性、风格和品牌声音)。客户完成设置过程后,Amazon Bedrock 就会运行评估并生成报告,以便客户可以轻松了解模型在关键安全性和准确性标准方面的表现,并为其用例选择最佳模型。

这种评估模型的能力不仅限于 Amazon Bedrock,客户还可以使用 Amazon SageMaker Clarify 中的模型评估来轻松评估、比较和选择跨关键质量和责任指标(例如准确性、稳健性和毒性)的最佳 FM 选项。所有 FM。

打击虚假信息:亚马逊泰坦中的水印

今天,我们宣布 亚马逊泰坦图像生成器 预览版,使客户能够快速生成和大规模增强高质量图像。我们在模型开发过程的每个阶段都考虑了负责任的人工智能,包括训练数据选择、构建过滤功能以检测和删除不适当的用户输入和模型输出,以及提高模型输出的人口多样性。默认情况下,所有 Amazon Titan 生成的图像都包含不可见水印,该水印旨在通过提供识别 AI 生成图像的谨慎机制来帮助减少虚假信息的传播。 AWS 是首批广泛发布内置隐形水印的模型提供商之一,这些水印集成到图像输出中,并且旨在防止更改。

建立信任:通过赔偿支持我们的模型和应用程序

建立客户信任是 AWS 的核心。自成立以来,我们一直与客户一起踏上旅程,随着生成式人工智能的发展,我们仍然致力于共同构建创新技术。为了使客户能够利用我们的生成式人工智能的力量,他们需要知道自己受到保护。 AWS 为以下 Amazon 生成式 AI 服务的输出提供版权赔偿范围:Amazon Titan Text Express、Amazon Titan Text Lite、Amazon Titan Embeddings、Amazon Titan Multimodal Embeddings、Amazon CodeWhisperer Professional、 AWS 健康抄写员, 亚马逊Lex亚马逊个性化。这意味着负责任地使用服务的客户将受到保护,免受第三方声称这些服务生成的输出侵犯版权的索赔(请参阅第 50.10 节) 服务条款)。此外,我们针对使用服务的标准知识产权赔偿可保护客户免受第三方声称服务和用于培训服务的数据侵犯知识产权的索赔。换句话说,如果您使用上面列出的 Amazon 生成式 AI 服务,并且有人起诉您侵犯知识产权,AWS 将为该诉讼辩护,其中包括承担针对您的任何判决或和解费用。

我们支持我们的生成式人工智能服务,并努力不断改进它们。随着 AWS 推出新服务和生成式 AI 不断发展,AWS 将继续不懈地致力于赢得和维护客户信任。

提高透明度:适用于 Amazon Titan Text 的 AWS AI 服务卡

We 推出AWS AI服务卡 re:Invent 2022 作为透明度资源,帮助客户更好地了解我们的 AWS AI 服务。 AI 服务卡是一种负责任的 AI 文档形式,为客户提供了一个单一位置来查找有关我们的 AI 服务的预期用例和限制、负责任的 AI 设计选择以及部署和性能优化最佳实践的信息。它们是我们致力于以负责任的方式构建我们的服务的全面开发过程的一部分,该过程解决公平性、可解释性、真实性和稳健性、治理、透明度、隐私和安全、安全性和可控性。

在今年的 re:Invent 大会上,我们宣布了 亚马逊泰坦文本的新人工智能服务卡 提高基础模型的透明度。我们还推出了四张新的人工智能服务卡,包括: Amazon Comprehend 检测 PII, Amazon Transcribe 毒性检测, Amazon Rekognition 人脸活跃度AWS 健康抄写员。您可以在以下位置探索这些卡片中的每一张 AWS 网站。 随着生成式人工智能的不断发展和发展,技术开发、测试和使用方式的透明度将成为赢得组织及其客户信任的重要组成部分。在 AWS,我们致力于继续向更广泛的社区提供 AI 服务卡等透明度资源,并迭代和收集有关最佳前进方式的反馈。

在整个生成式人工智能生命周期中投资负责任的人工智能

我们对本周在 re:Invent 上宣布的新创新感到兴奋,这些创新为我们的客户提供了更多工具、资源和内置保护,以安全地构建和使用生成式 AI。从模型评估到护栏再到水印,客户现在可以更快地将生成式人工智能引入其组织,同时降低风险。对客户的新保护(例如知识产权赔偿范围)和用于提高透明度的新资源(例如额外的人工智能服务卡)也是我们致力于在技术公司、政策制定者、社区团体、科学家等之间建立信任的关键例子。我们继续在基础模型的整个生命周期中对负责任的人工智能进行有意义的投资,以帮助我们的客户以安全、可靠和负责任的方式扩展人工智能。


作者简介

彼得哈利南 在 AWS AI 与负责任的 AI 专家团队一起领导负责任 AI 的科学和实践计划。 他在人工智能(哈佛大学博士)和创业(Blindsight,出售给亚马逊)方面拥有深厚的专业知识。 他的志愿活动包括担任斯坦福大学医学院的咨询教授,以及马达加斯加美国商会的主席。 如果可能,他会和孩子们一起去山上:滑雪、登山、远足和漂流

瓦西·菲洛明(Vasi Philomin) 目前是 AWS 生成人工智能副总裁。他领导了包括 Amazon Bedrock、Amazon Titan 和 Amazon CodeWhisperer 在内的生成式 AI 工作。

时间戳记:

更多来自 AWS机器学习