OpenAI 发布首款 Cerebras 芯片模型,推理速度提升 15 倍
产品· 2 分钟阅读2 阅读
OpenAI 推出 GPT-5.3-Codex-Spark,这是其首款运行在 Cerebras 硬件而非英伟达上的 AI 模型,标志着计算基础设施多元化的重要一步。该轻量级编程模型利用 Cerebras 第三代晶圆级引擎芯片,推理速度超过每秒 1,000 个 token,比 GPU 系统快达 15 倍,专为实时软件开发设计。
OpenAI 发布了 GPT-5.3-Codex-Spark,这是其首款运行在 Cerebras Systems 硬件而非英伟达(NVIDIA)上的人工智能模型,标志着该公司在多元化计算基础设施以实现更快 AI 响应方面迈出的重要一步。
这款轻量级编程模型于 2026 年 2 月 12 日发布,通过利用 Cerebras 的第三代晶圆级引擎芯片,推理速度超过每秒 1,000 个 token——比基于 GPU 的系统快达 15 倍。此次发布是两家公司于 2026 年 1 月宣布的价值 100 亿美元合作的首个产品成果。

速度优于原始性能
Codex-Spark 专为实时软件开发工作流而设计,在这类场景中响应速度与功能表现同等重要。据 Cerebras 称,该模型是“一个经过优化以实现快速推理的高性能小型模型”,在 SWE-Bench Pro 和 Terminal-Bench 2.0 等基准测试中表现优于 OpenAI 早期的 GPT-5.1-Codex-mini,同时完成任务的速度更快。
彭博法律将该模型描述为 OpenAI 旗舰级 GPT-5.3-Codex“功能稍弱但速度更快的版本”。GPT-5.3-Codex 于上周发布,目前仍是 OpenAI 功能最强大的编码模型。主力 GPT-5.3-Codex 模型运行在英伟达硬件上,并具有更高的网络安全风险等级。
根据 Cerebras 的公告,OpenAI 计算负责人 Sachin Katti 表示:“Cerebras 一直是我们出色的工程合作伙伴,我们很高兴能将快速推理作为一项新的平台能力。将晶圆级计算投入生产为我们提供了一种新方式,让 Codex 在处理对延迟敏感的工作时保持响应性。”
研究预览版推出
Codex-Spark 作为研究预览版向 ChatGPT Pro 订阅用户开放,可通过 Codex 应用程序、命令行界面和 VS Code 扩展使用。API 访问权限正在向精选设计合作伙伴推出。
1月的合作协议承诺 OpenAI 在三年内从 Cerebras 获取最多 750 兆瓦的算力,部署阶段将延续至 2028 年。Cerebras 采用与英伟达根本不同的架构来制造处理器——将计算、内存和带宽集成在单个晶圆级芯片上,以消除在传统硬件上拖慢推理速度的瓶颈。
Cerebras 表示,将这一能力扩展到 OpenAI 最大的前沿模型仍在 2026 年的路线图上。
想了解 AI 如何助力您的企业?
免费获取企业 AI 成熟度诊断报告,发现转型机会
//
24小时热榜
免费获取 AI 落地指南
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断

