Meta 创始人马克·扎克伯格在财报会议上宣布,公司正在利用超过 10 万颗英伟达 H100 AI GPU 的庞大集群,训练新一代 Llama 4 模型。这一规模在业界前所未有,甚至超越了 OpenAI 和 Google 等巨头。虽然扎克伯格并未透露 Llama 4 的具体功能,但他强调这款新模型拥有“新的模态”、“更强的推理能力”以及“更快的运算速度”,表明 Meta 正加紧步伐,在 AI 领域与微软、Google 以及马斯克的 xAI 展开激烈竞争。
与竞争对手不同,Meta 采用开源方式发布 Llama 模型,允许研究人员和企业在此基础上开发应用。相比之下,OpenAI 的 GPT-4o 和 Google 的 Gemini 等 AI 模型,仅通过 API 提供使用。然而,Meta 对 Llama 的开源仍有限制,例如禁止商业使用,且不透露训练细节等。这种策略可能使 Llama 在未来的 AI 市场中占据主导地位。
然而,如此庞大的 AI 集群也带来了巨大的能源需求。单一现代 AI GPU 每年可消耗高达 3.7MWh 电力,而 10 万颗 AI GPU 的年耗电量将至少达到 370GWh,相当于可供 3,400 万户美国家庭使用的电力。由于新增电力来源需要时间,扎克伯格也坦言,电力不足将成为 AI 发展的瓶颈。
即使如此,扎克伯格仍强调,公司对人工智能 (AI) 的巨额投资是未来发展的核心,并坚持加大 AI 投入,称这将为 Meta 带来长期收益与竞争优势。他指出 AI 技术的进步已经在公司各个领域显现出积极效果,提升了 Meta 在应用和业务中的表现。他表示,AI 可以加速许多核心业务的运作,如内容管理、数据分析和广告优化。他认为这些技术不仅能强化公司现有产品,也能带来更多创新可能。
同时,Meta 也并非唯一拥有 10 万颗 H100 AI GPU 集群的公司。马斯克在七月底启动了同样规模的运算集群,称其为“算力工厂”,计划将规模加倍至 20 万颗 AI GPU。尽管如此,Meta 早在年初便宣布,计划到 2024 年底拥有超过 50 万颗 H100 等级的 AI GPU,显示公司对 Llama 4 的训练投入了庞大的硬件资源。
Meta 第三季的营收达到 405.9 亿美元,高于市场预期。