OpenAI 发布 GPT-5.3-Codex:首个参与构建自身的 AI 编程模型

产品· 3 分钟阅读0 阅读

OpenAI 推出 GPT-5.3-Codex,这是其首个在自身创建过程中发挥作用的编程模型,运行速度比前代快 25%,在行业基准测试中表现优异。该模型被归类为网络安全任务“高能力”等级,并配备了增强的安全措施。同时,OpenAI 还推出了 Codex macOS 桌面应用,作为管理多个 AI 编程代理的命令中心。

OpenAI 周四发布了 GPT-5.3-Codex,这是一款先进的编程模型,该公司称其为“迄今为止最强大的智能体编程模型”——也是其历史上首个在自身创建过程中发挥作用的模型。Codex 团队在开发过程中使用该模型的早期版本来调试训练、管理部署并诊断测试结果,标志着 AI 系统构建方式进入了新篇章。

该模型的运行速度比前代快 25%,同时在行业基准测试中取得了最先进的成果,包括在 SWE-Bench Pro 上达到 56.8% 的准确率,在 Terminal-Bench 2.0 上达到 77.3% 的准确率。它也是 OpenAI 首个根据公司准备框架被归类为网络安全任务“高能力”等级的模型,也是首个专门训练用于识别软件漏洞的模型。

相关报道

更多详情

OpenAI 推出 Codex 应用以在 AI 编程竞赛中抢占先机

自我改进与递归开发流程

GPT-5.3-Codex 开发过程中的递归特性标志着前沿 AI 模型创建方式的转变。据 OpenAI 称,其研究团队使用 Codex 来监控和调试训练运行、追踪整个过程中的模式、分析交互质量并提出修复方案。工程团队则利用它来优化模型的服务基础设施、识别渲染错误以及根因分析低缓存命中率问题。

在 alpha 测试期间,研究人员使用 GPT-5.3-Codex 构建工具来分析其自身的性能改进,创建分类器来追踪数千个会话日志中的澄清问题和任务进展。OpenAI 表示:“随着代理更好地理解用户意图,每轮对话取得更多进展,需要澄清的问题也更少,使用 Codex 进行开发的人员感到更加满意。”

Codex 产品负责人 Alexander Embiricos 此前向 Ars Technica 透露,“Codex 的绝大部分是由 Codex 自己构建的”,这凸显了该公司日益依赖 AI 辅助开发。

网络安全分类与安全措施

GPT-5.3-Codex 是 OpenAI 首个在公司更新的准备框架下达到网络安全“高能力”门槛的模型,该框架将此类模型定义为“可能放大现有严重危害途径”的模型。虽然 OpenAI 表示缺乏确凿证据表明该模型能够自动化端到端的网络攻击,但公司正采取预防性措施,实施增强的安全措施,包括自动化监控、高级功能的可信访问要求,以及结合威胁情报的执行管道。

为支持防御性研究,OpenAI 正在推出“网络安全可信访问”试点项目,以加速网络防御工作。该公司还承诺通过其网络安全资助计划提供 1000 万美元的 API 积分,用于针对开源软件和关键基础设施的善意安全研究。该计划是在 2023 年推出的 100 万美元项目基础上的扩展。OpenAI 还在扩大 Aardvark 的访问范围,这是其在 2025 年 10 月推出后一直处于私有测试阶段的安全研究代理。

全新桌面命令中心

在发布模型的同时,OpenAI 正在推广其本周早些时候推出的全新 Codex macOS 桌面应用程序,该应用作为“命令中心”,用于并行管理多个 AI 编程代理。该应用允许开发者跨按项目组织的独立线程运行代理,并配备工作树等功能,使多个代理能够在同一代码库上工作而不会产生冲突。

GPT-5.3-Codex 现已在 ChatGPT 的付费计划、Codex 桌面应用、命令行界面和 IDE 扩展中推出,API 访问权限预计随后开放。

想了解 AI 如何助力您的企业?

免费获取企业 AI 成熟度诊断报告,发现转型机会