微软通过更多机器学习填充 Azure 云

微软通过更多机器学习填充 Azure 云

源节点: 2677257

微软确保将 Azure 纳入本周 Build 2023 开发者大会的人工智能盛会。

当企业考虑试验或部署生成式 AI 时,他们很可能会寻求公共云和类似的可扩展计算和存储基础设施来运行大型语言模型 (LLM) 之类的东西。

微软, 武装 ChatGPT、GPT-4 和其他 OpenAI 系统几个月来一直在将 AI 功能推向其帝国的每个角落。 Azure 也不例外——OpenAI 服务就是一个例子——在它之后 搭建会议,雷德蒙德的公共云现在拥有更多声称的优惠。

排在首位的是一个扩展的 与英伟达合作,它本身正急于将自己确立为不可或缺的 AI 技术提供商,从 GPU 加速器到软件。 仅在本周,这家芯片制造商就公布了一系列合作伙伴关系,例如在 Dell Technologies World 上与戴尔以及在 ISC23 上与超级计算机制造商的合作。

将 Nvidia 资源引入 Azure

具体来说,微软正在将 Nvidia 的 AI Enterprise 软件套件、开发工具、框架和预训练模型集成到 Azure 机器学习中,创建机器学习云平台产品经理 Tina Manghnani 所说的“第一个企业就绪、安全、终端” -供开发人员构建、部署和管理人工智能应用程序(包括自定义大型语言模型)的端到端云平台。”

同一天,微软制作了 Azure Machine Learning 登记 – 一个用于托管和共享容器、模型和数据等机器学习构建块的平台,以及一个用于将 AI Enterprise 集成到 Azure 中的工具——普遍可用。 Azure 机器学习中的 AI Enterprise 也提供有限的技术预览。

“这意味着,对于与 Azure 已有业务往来和关系的客户来说,他们可以利用这些关系(他们可以从已有的云合同中进行消费)来获取 Nvidia AI Enterprise 并在 Azure ML 中使用它来获得此功能Nvidia 企业计算副总裁 Manuvir Das 在 Build 开幕前几天告诉记者。

隔离网络以保护 AI 数据

在云中运行人工智能操作的企业希望确保其数据不会暴露给其他公司,网络隔离是一个关键工具。 微软拥有私有链接工作区和数据泄露保护等功能,但没有用于训练人工智能模型的公司的计算资源的公共 IP 选项。 在 Build 上,供应商宣布 托管网络隔离 在 Azure 机器学习中选择最适合企业安全策略的隔离模式。

不要错过我们的 Build 2023 报道

毫不奇怪,开源工具越来越多地进入人工智能领域。 微软去年与 Hugging Face 合作,推出了由这家开源公司技术支持的 Azure 机器学习端点。 在 Build 中,这两个组织 扩大 他们的关系。

Hugging Face 已经提供了一个 精选集 工具和 API 以及 巨大的枢纽 可供下载和使用的 ML 模型。 现在,数千个此类模型的集合将出现在雷德蒙德的 Azure 机器学习目录中,以便客户可以在 Microsoft 云中的托管端点上访问和部署它们。

更多基础模型选项

雷德蒙德也在制作 基础模型 在 Azure 机器学习中提供公共预览版。 基础模型是功能强大且功能强大的预训练模型,组织可以根据自己的目的使用自己的数据进行定制,并根据需要推出。

基础模型 变得非常重要,因为它们可以帮助组织构建非平凡的 ML 驱动的应用程序,根据他们的特定要求进行调整,而无需花费数亿美元从头开始训练模型或将处理和敏感的客户数据卸载到云端。

英伟达发布了一个 尼莫 可能在这方面有用的框架,这个月有 合作 与 ServiceNow 和 - 本周 - 戴尔 螺旋计划 沿着这些路线。

“过去几个月,我们与企业公司就生成式人工智能进行合作,我们了解到,有大量企业希望利用生成式人工智能的力量,但都是在自己的数据中心进行或者在公共云之外进行,”Nvidia 的 Das 说。

开源和基础模型等资源有望降低复杂性和成本,让更多组织能够使用生成式人工智能。 ®

时间戳记:

更多来自 注册