Nutanix 认为你可以将人工智能塞进它管理的盒子里

Nutanix 认为你可以将人工智能塞进它管理的盒子里

源节点: 2824656

人们对人工智能工作负载的兴趣已经达到了这样的程度,主要企业供应商正在将其打包以方便使用,其中 Nutanix 是最新的为二进制 Brainbox 准备其平台的公司。

该公司对其“GPT-in-a-Box 解决方案”的解释是,许多组织既对人工智能感到好奇,又对在云中进行实验持谨慎态度,因为担心会迅速增加巨额账单。 Nutanix 产品管理高级副总裁 Thomas Cornely 表示,数据治理是另一个问题,因为运行 AI 工作负载意味着需要处理大量可能具有不同合规性要求的数据。

科尼利认为,用户还担心他们最初的人工智能尝试投资回报率可能会很低。

用户要做什么? 当您是 Nutanix,并且您的“锤子”是一个软件堆栈,可将硬件超大规模云抽象为混合云并实现管理自动化时,每个工作负载看起来都像钉子。

因此,GPT-in-a-Box 是 Nutanix 堆栈的一个部分,专门针对 AI 工作负载的需求进行了调整。 该产品还包含旨在简化机器学习工作负载部署的 Kubeflow、PyTorch 机器学习框架和 Jupyter。 用户还可以运行他们喜欢的生成式预训练 Transformer (GPT),第一天就支持 Llama2、Falcon 和 horsesML。

Nutanix 的 AHV 虚拟机管理程序已获得运行关键 AI 工作负载 Nvidia AI Enterprise 4.0 的认证。 Nutanix 还可以管理 GPU。

供应商的混合云信誉发挥了作用,因为他们认识到为模型提供数据所需的数据可能很大,因此可能最好位于云中,但人工智能工作负载可以在本地、边缘或云中运行。 Nutanix 的平台就是在逻辑结构下管理此类工作负载集合。

因此,该公司的计划是让已经运行其产品的客户考虑为他们的人工智能工作负载使用该平台,即使只是因为仅仅为人工智能创建一个孤岛是一个愚蠢的想法。 还因为 Nutanix 希望在其平台上提供更多您的东西。

它并不是唯一有这种雄心的公司。 戴尔已经 煮熟 类似的产品。 VMware 有 戏弄 与 AI 厂商合作,为 vSphere 打包他们的产品,这可能会在下周的 Explore 会议上揭晓。 大型超大规模云也已经打包了人工智能工作负载。

Nutanix 开始使用 Nvidia GPU,Cornely 告诉我们,对 AMD 加速器的支持正在进行中。 我们询问了英特尔的独立 GPU,该套件最近才推向市场,受到好评,但尚未得到广泛采用。 Cornely 表示,Nutanix 考虑支持还为时过早,但并不排除英特尔 GPU 的光明未来。 ®

时间戳记:

更多来自 注册