据路透社周四援引一份内部文件报道,Facebook Meta Platforms 的母公司计划今年在其数据中心推出新一代定制芯片。
这款第二代芯片是 Meta 去年推出的内部芯片系列的一部分,旨在支持该公司进军人工智能 (AI) 领域。路透社报道称,其实施可能会减少 Meta 对目前主导市场的 Nvidia 芯片的依赖,并有助于管理与运行 AI 工作负载相关的不断上升的成本,因为 Meta 加快了推出 AI 产品的步伐。
这一消息是在 Meta 宣布计划建立自己的通用人工智能 (AGI) 两周后发布的。 Meta 首席执行官马克·扎克伯格 (Mark Zuckerberg) 表示:“我们的长期愿景是构建通用智能,负责任地将其开源,并使其广泛可用,以便每个人都能受益。” AGI 是人工智能的一种形式,几乎在所有方面都与人类智能相匹配或超过人类智能。
在过去的一年里,Meta 一直在努力提高其计算能力,以支持其雄心勃勃的生成式人工智能产品集成到 Facebook、Instagram、WhatsApp 等平台,甚至雷朋智能眼镜等硬件设备中。这项工作需要投资数十亿美元来购买专用芯片并改造数据中心以适应它们。
鉴于 Meta 的大规模运营,成功部署自己的芯片可能会带来大量成本节省。硅研究小组 SemiAnalysis 的创始人迪伦·帕特尔 (Dylan Patel) 表示,此举可以减少每年数亿美元的能源成本和数十亿美元的芯片采购费用。
推动人工智能应用所需的资源(芯片、基础设施和能源)已成为科技公司的一项重大投资。这笔支出在一定程度上抵消了人工智能技术炒作带来的收益。
据路透社报道,Meta 发言人证实该公司计划于 2024 年将更新后的芯片投入生产。该芯片将与 Meta 正在购买的数十万个现成图形处理单元 (GPU) 一起工作,这些单元包括:广泛用于人工智能任务。
“我们认为我们内部开发的加速器与商用 GPU 具有高度互补性,可以为特定于 Meta 的工作负载提供性能和效率的最佳组合,”Meta 发言人解释道。
一月份,扎克伯格还表示,到今年年底,该公司的目标是拥有大约 35 万个 Nvidia 旗舰“H100”处理器,该处理器因用于人工智能应用而闻名。结合其他供应商的供应,Meta 预计总共将拥有相当于 60 万台 H100 的计算能力。
作为该计划的一部分,部署自己的芯片的决定代表了 Meta 内部人工智能芯片项目的积极发展。此前,高管们决定在 2022 年停止该芯片的第一次迭代,转而投资数十亿美元购买 Nvidia GPU,该 GPU 主要用于人工智能训练任务。
这款新芯片与其前身一样,内部被称为“Artemis”,是为推理而设计的,其中模型使用算法做出判断并对用户提示生成响应。路透社去年报道称,Meta 还在开发一款更雄心勃勃的芯片,能够完成训练和推理任务。
去年,这家全球最大的社交公司还分享了第一代元训练和推理加速器(MTIA)计划的详细信息,将其定位为一个学习机会。
Patel 表示,尽管最初遇到了挫折,但与能源密集型 Nvidia 处理器相比,推理芯片在处理 Meta 的推荐模型方面可能会提供更高的效率。他补充说:“花费了大量的金钱和精力,这些都是可以节省的。”