经过多年的发展,Meta 可能最终会在今年以有意义的方式推出其自主研发的人工智能加速器。
Facebook 帝国本周确认了其元训练推理加速器 (MTIA) 系列芯片的愿望,以补充 Nvidia H100 和 AMD MI300X GPU 的部署。具体来说,Meta 将部署推理优化处理器, 据报道代号为阿耳忒弥斯,基于硅谷巨头的第一代零件 戏弄 去年。
Meta 发言人表示:“我们对 MTIA 的内部芯片工作取得的进展感到非常兴奋,并有望在 2024 年开始在生产中部署我们的推理变体。” 注册 上周四。
“我们认为我们内部开发的加速器与商用 GPU 具有高度互补性,可以在元特定工作负载上提供性能和效率的最佳组合,”该代表继续说道。细节?没有。该发言人告诉我们:“我们期待在今年晚些时候分享有关我们未来 MTIA 计划的更多最新信息。”
我们认为这意味着第二代专注于推理的芯片正在广泛推出,继第一代仅用于推理的实验室版本之后,我们可能会在稍后发现主要用于训练或训练和推理的部分。
随着人工智能工作负载部署的增长,Meta 已成为 Nvidia 和 AMD 的最佳客户之一,增加了对专用芯片的需求和使用,以使其机器学习软件尽可能快地运行。因此,Instagram 巨头决定开发自己的定制处理器并不令人意外。
事实上,从表面上看,大型企业在实际部署方面比定制人工智能芯片方相对较晚。多年来,亚马逊和谷歌一直在使用自主开发的组件来加速内部机器学习系统,例如推荐模型和客户机器学习代码。与此同时,微软去年推出了其自主研发的加速器。
但除了 Meta 大规模推出 MTIA 推理芯片这一事实之外,该社交网络还没有透露其精确的架构,也没有透露为内部芯片保留哪些工作负载以及将哪些工作负载转移到 AMD 和 Nvidia 的 GPU。
Meta 很可能会在其定制 ASIC 上运行已建立的模型,以释放 GPU 资源以用于更动态或不断发展的应用程序。我们之前已经看到 Meta 走上了这条路线,使用了旨在卸载数据和计算密集型视频工作负载的定制加速器。
至于底层设计,SemiAnalysis 的行业观察人士告诉我们,新芯片紧密基于 Meta 第一代部件的架构。
垫脚石
经过三年的开发,Meta 的 MTIA v2023 部件于 1 年初发布,我们的朋友们在 下一个平台 看着 去年春天,我们专门针对深度学习推荐模型进行了设计。
第一代芯片围绕 RISC-V CPU 集群构建,并使用台积电的 7 纳米工艺制造。在引擎盖下,该组件采用了一个 128×128 的处理元件矩阵,每个处理元件都配备了两个 RV CPU 核心,其中一个配备了矢量数学扩展。这些内核由大量 5MB 片上 SRAM 和高达 XNUMXGB LPDDRXNUMX 内存供电。
正如 Meta 去年声称的那样,该芯片的运行频率为 800 MHz,INT102.4 性能每秒可实现 8 万亿次运算,或半精度 (FP51.2) 下的 16 teraFLOPS。相比之下,Nvidia 的 H100 能够实现近 8 petaFLOPS 的稀疏 FP25 性能。虽然远不如 Nvidia 或 AMD 的 GPU 强大,但该芯片确实有一个主要优势:功耗。该芯片本身的热设计功率仅为 XNUMX 瓦。
根据 半分析Meta 的最新芯片拥有改进的内核,并将 LPDDR5 替换为使用台积电晶圆基板上芯片 (CoWoS) 技术封装的高带宽内存。
另一个显着的区别是 Meta 的第二代芯片实际上将在其数据中心基础设施中广泛部署。据 Facebook 巨头称,虽然第一代部件用于运行生产广告模型,但它从未离开过实验室。
追逐通用人工智能
撇开定制部件不谈,Facebook 和 Instagram 母公司已经抛弃了 十亿美元 近年来,人们在 GPU 上投入了大量资金,以加速不适合传统 CPU 平台的各种任务。然而,大型语言模型(例如 GPT-4 和 Meta 自己的 Llama 2)的兴起改变了格局并推动了大规模 GPU 集群的部署。
就 Meta 的运营规模而言,这些趋势迫使其基础设施发生重大变化,包括 重新设计 多个数据中心,以满足与大型人工智能部署相关的巨大电力和冷却需求。
随着公司将重点从元宇宙转移到现实世界,Meta 的部署在接下来的几个月里只会变得更大。 开发 通用人工智能。据说,人工智能方面的工作将有助于形成元宇宙或类似的东西。
据首席执行官马克扎克伯格称,Meta 计划仅今年就部署多达 350,000 万台 Nvidia H100。
该公司还宣布计划部署 AMD 新的 推出 数据中心内的 MI300X GPU。扎克伯格声称他的公司今年年底将拥有相当于 600,000 万台 H100 的计算能力。显然,Meta 的 MTIA 芯片不会很快取代 GPU。 ®
- :具有
- :是
- $UP
- 000
- 102
- 2%
- 2023
- 2024
- 25
- 350
- 4
- 51
- 600
- 800
- a
- 关于
- 加快
- 加速器
- 加速器
- 根据
- 横过
- 通
- 优点
- 广告
- 后
- AI
- 所有类型
- 单
- 靠
- 还
- Amazon
- AMD公司
- an
- 和
- 公布
- 应用领域
- 架构
- 保健
- 围绕
- 人造的
- 人工智能
- AS
- 亚瑟士
- 旁白
- 相关
- At
- 可使用
- 基于
- BE
- 成为
- 很
- before
- 最佳
- 超越
- 商业
- 拥有
- 建
- by
- 能力
- CEO
- 变
- 更改
- 芯片
- 碎屑
- 声称
- 明确地
- 密切
- 簇
- CO
- 码
- 商业
- 公司
- 对照
- 补充
- 元件
- 组件
- 计算
- 计算
- 计算能力
- CONFIRMED
- 消费
- 持续
- 常规
- 公司
- 中央处理器
- 习俗
- 顾客
- 合作伙伴
- data
- 数据中心
- 决定
- 交付
- 部署
- 部署
- 部署
- 部署
- 设计
- 设计
- 欲望
- 详情
- 开发
- 发达
- 研发支持
- DID
- 差异
- 美元
- 完成
- 向下
- 驱动
- 动态
- 每
- 早
- 效率
- 工作的影响。
- 或
- 分子
- 帝国
- 就业
- 结束
- 配备
- 成熟
- 醚(ETH)
- 演变
- 兴奋
- 扩展
- 面部彩妆
- 事实
- 家庭
- 高效率
- 美联储
- 少数
- 终于
- 找到最适合您的地方
- 专注焦点
- 以下
- 针对
- 申请
- 向前
- 四
- Free
- 朋友
- 止
- 未来
- 其他咨询
- 一般情报
- 慷慨
- 得到
- 巨人
- Go
- 去
- 谷歌
- GPU
- 图形处理器
- 长大的
- 民政事务总署
- 半
- 有
- 帮助
- 高度
- 他的
- 自产自销
- 兜帽
- 但是
- HTTPS
- 巨大
- 改善
- in
- 包含
- 增加
- 行业中的应用:
- 基础设施
- 房源搜索
- 拟
- 集约
- 内部
- 内部
- ISN
- IT
- 它的
- 本身
- JPG
- 只是
- 实验室
- 景观
- 语言
- 大
- 大
- 名:
- 去年
- 晚了
- 后来
- 最新
- 左
- 喜欢
- 容易
- 骆驼
- 看
- 制成
- 主要
- 使
- 方式
- 许多
- 标记
- 马克·扎克伯格
- 大规模
- 数学
- 矩阵
- 可能..
- 意味着
- 有意义的
- 与此同时
- 内存
- 元
- 元宇宙
- 微软
- 介意
- 混合
- ML
- 模型
- 个月
- 更多
- 近
- 几乎
- 需求
- 网络
- 决不要
- 全新
- 新芯片
- 新
- 下页
- 也不
- 显着
- Nvidia公司
- of
- on
- 一
- 仅由
- 运营
- 运营
- 最佳
- or
- 我们的
- 输出
- 超过
- 己
- συσκευάζονται
- 部分
- 部分
- 党
- 为
- 性能
- 计划
- 平台
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 可能
- 功率
- 强大
- 精确的
- 平台精度
- 主要
- 过程
- 处理
- 处理器
- 处理器
- 生产
- 进展
- RE
- 真实的世界
- 最近
- 相对
- 岗位要求
- 资源
- 路透社
- 揭密
- 上升
- 滚
- 卷
- 路线
- 运行
- s
- 鳞片
- 其次
- 看到
- 看到
- 几个
- 共享
- 转移
- 硅
- 硅谷
- So
- 社会
- 社交网络
- 软件
- 一些
- 东西
- 不久
- 疏
- 专门
- 特别是
- 发言人
- 弹簧
- 开始
- 这样
- 补充
- SUPPORT
- 奇怪
- 产品
- T
- 服用
- 任务
- 科技
- 展示
- 条款
- 这
- 景观
- 元宇宙
- 热
- 博曼
- Free Introduction
- 本星期
- 今年
- 三
- 星期四
- 从而
- 泰坦
- 至
- 告诉
- 突破
- 跟踪时
- 行业
- 产品培训
- 趋势
- 兆
- 台积电
- 二
- 下
- 相关
- 最新动态
- us
- 使用
- 用过的
- 运用
- v1
- 谷
- 变种
- Ve
- 向量
- 版本
- 视频
- 是
- 方法..
- we
- 周
- 为
- 这
- 而
- 广泛
- 广泛
- 将
- 韩元
- 工作
- 将
- 年
- 年
- 和风网
- 扎克伯格