戴尔和英伟达梦想 DIY 生成人工智能模型

戴尔和英伟达梦想 DIY 生成人工智能模型

源节点: 2674711

戴尔世界 戴尔已与 Nvidia 合作,向企业推销工具,以构建根据自己的企业数据训练的生成式 AI 模型,而不是像 OpenAI 的 GPT 这样的通用大型语言模型 (LLM) 使用的公开信息。

推销的关键是数据安全。 Nvidia 的企业计算副总裁 Manuvir Das 告诉记者,一个企业构建自己的生成人工智能,并在自己的领域特定数据上进行训练,“不必担心他们的专有数据在开发过程中与其他公司的专有数据混合在一起。训练。”

Project Helix 是 Nvidia 和戴尔于周二在戴尔技术世界 2023 上推出的一项计划,其中包括 PowerEdge XE9680 和 R760xa 机架服务器,针对 AI 训练和推理工作负载进行了优化。 XE9680 在运行两个英特尔第四代至强可扩展处理器的同时,还拥有八个 Nvidia 最新的 H100 张量核心 GPU 通过 Nvidia 的 NVLink 网络连接。

Nvidia 还计划利用其 AI 企业软件、框架和开发人员工具——包括 NeMo 和预训练基础模型 NeMo 护栏 – 构建安全的生成式 AI 聊天机器人。 它表示,戴尔用于非结构化数据的 PowerScale 和 ECS 企业对象存储系统可以与 PowerEdge 机架服务器一起使用。

Das 表示:“所有这一切使我们能够真正为生成式 AI 构建一个完整的解决方案,该解决方案可以在本地运行,并通过硬件和软件进行充分验证,并且是安全 [和] 私密的。”

生活在边缘

在公司自己的数据中心内运行训练和推理工作负载是防止关键公司数据最终进入公共领域并可能进入公共领域的关键 违反 Huang 表示,隐私和安全法规。 在生成人工智能的情况下,本地将越来越意味着边缘。

“他们必须在本地进行,因为那是他们的数据所在,而且他们必须在靠近边缘的地方进行,因为那最接近光速,”Huang 说。 “你希望它立即响应。 您还希望它位于边缘,因为在未来,您希望获得来自多种模式的信息。

“我们获得的上下文信息越多,我们就能做出更好的……推断。 做出尽可能靠近边缘的决策的能力,行动所在的位置,所有数据所在的位置,以及响应速度尽可能高的位置,是非常重要的。”

Nvidia 大约十年前就押注 AI 将成为未来的增长引擎,而 Project Helix 进一步帮助巩固了其作为企业和 HPC 组织机器学习关键推动者的地位。

杰弗里·克拉克 (Jeffrey Clarke) 表示,当法学硕士在大规模通用数据集上进行训练时——就 GPT 和基于其构建的 ChatGPT 机器人而言,互联网——组织希望在自己的数据上训练较小的模型来满足自己的特定需求,戴尔副董事长兼联席首席运营官。

“这是我们在客户身上看到的趋势,”克拉克说。 “他们如何利用业务背景和数据帮助他们做出更好的业务决策? 您不需要 GPT 大型语言模型来执行此操作。 ……公司不会在工厂中部署 ChatGPT 来让工厂运转得更好。 这将是 X、Y 或 Z 公司用他们的数据制作的本地化模型。”

给予更多控制权

推动企业使用其专有信息并在自己的数据中心定制培训模型的势头越来越大。 本月早些时候,ServiceNow 和 Nvidia 公布合作伙伴关系 类似于 Project Helix。 这 想法并不新鲜,但随着最近生成式 AI 和 LLM 的发展加速,它得到了加强。

在 2022 年 XNUMX 月的 GTC 上,Nvidia 考虑到这一点推出了 NeMo LLM 服务,为企业提供了一种方法来调整一系列预训练的基础模型,以创建根据自己的数据训练的定制模型。

Das 说,像 OpenAI 的 GPT-4 这样的通用模型将适用于某些工作,“但也有大量企业需要为自己的领域、自己的专有数据拥有自己定制的大语言模型,以确保模型在他们公司的环境中完全按照他们需要完成的工作。”

“NeMo 是 Nvidia 为那些需要构建和维护自己的模型的客户提供的平台。”

Nvidia 首席执行官黄仁勋在主题演讲中出现在与克拉克的视频讨论中,他说“每家公司的核心都是智能。”

“Project Helix ……将帮助每家公司成为人工智能工厂,并能够生产他们的智能、特定领域的智能、专业知识,然后以光速并大规模地进行,”黄说。

戴尔的克拉克声称,围绕生成人工智能的快速创新也将为企业提供更多选择。 基于 Project Helix 的戴尔验证设计将于 XNUMX 月开始提供。 ®

时间戳记:

更多来自 注册