index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
OpenAI发布了GPT-5-Codex,标志着工程智能体(Agent)的重大进展。此次发布的Codex模型不再通过API开放,而是集成到CLI、IDE插件和网页端,旨在成为一个能够独立完成项目搭建、测试、代码修复、PR提交等复杂工程任务的智能体,并能连续工作长达七小时。在SWE-bench基准测试中,Codex在修复Bug和补功能方面表现出更强的可靠性,尤其在处理大型代码库重构任务时,成功率显著提升。GPT-5-Codex能够根据任务复杂度动态分配计算资源,对简单任务减少计算量,对复杂任务则投入更多资源进行推理和迭代,展现出“工程意义上的结果”。此外,Codex在代码审查方面也大幅降低了错误建议比例,并提高了高价值建议的比例。
🚀 **工程智能体新突破**:GPT-5-Codex的发布标志着AI在软件开发领域迈出了重要一步,它不再局限于生成代码片段,而是能够独立承担从项目搭建、代码编写、测试到Bug修复、提交PR的全流程工程任务,并且能够长时间连续工作,成为一个真正的“工程智能体”。
💡 **任务复杂度动态响应**:Codex通过分析不同任务的计算量,能够智能地分配计算资源。对于简单任务,它会显著减少计算量以提高效率;而对于复杂的大型项目重构等任务,它则会投入更多计算资源进行深入的逻辑推理、代码编辑和测试迭代,展现出高度的适应性和智能化。
🎯 **显著提升代码质量与效率**:在基准测试中,Codex在修复Bug和补全功能方面展现出更高的稳定性和成功率。尤其在处理大型代码库的结构改造时,其成功率大幅提升。在代码审查方面,Codex的错误建议比例显著降低,高价值建议比例则有所提高,能够更有效地帮助开发者提升代码质量。
🌐 **多平台无缝集成与使用**:Codex已深度集成到开发者常用的工作流程中,支持终端(CLI)、IDE插件(如VS Code)、网页端以及GitHub等平台。无论开发者在哪里编写代码,Codex都能无缝衔接,理解上下文并提供即时帮助,极大地提升了开发效率和协作体验。
原创 R.Zen 2025-09-16 15:44 北京

凌晨一点,OpenAI 发布了 GPT-5-Codex,但这次,所有想调用 API 的开发者可能要失望了。OpenAI 做了一个决定:Codex 并不通过 API 开放。你不能靠 key 来偷偷调用 GPT-5-Codex 模型,只能通过 CLI、IDE 插件或者 Codex 网页端来用。它的任务很简单:替你干活。Codex 这次不再局限于写几行代码,而是从你提需求那一刻起,它会自己搭项目、跑测试、修 bug、贴截图、提 PR。一口气干完,而且能连续独立执行七小时不间断。Codex 从 GPT-3 时代就有了雏形,但这次的 GPT-5-Codex,是 OpenAI 第一次把它变成了一个真正能交付的「工程智能体」。跑分GPT-5-Codex 到底有多强?可以先看几组跑分。在基准测试 SWE-bench 里,Codex 的通过率从 GPT-5 的 72.8% 提高到了 74.5%。这提升不算夸张,但足够稳定,说明它在“修 Bug、补功能、读文档”这些传统任务上,更可靠了。但一旦涉及到代码重构,差距就突然拉开了。同样是让模型去处理大型代码库里的结构改造任务,GPT-5 的成功率只有 33.9%,而 Codex 做到了 51.3%。提升接近 20 个点。这种任务跟“写段小函数”完全不同,需要上下文联动、理解依赖关系、一步步通关调试。Codex 的训练重点,显然押在了这里。最值得我们注意的是这张图,GPT-5-Codex 是如何具有动态思维的 (统计 Codex 在不同任务复杂度下花了多少 token,相当于“模型输出量”)。OpenAI 用自家员工使用 Codex CLI 的大量数据做了分析,把各级复杂度任务的 token 用量抽象分成百分位曲线,最后得到这样的结论:在最简单的前 10% 任务中,GPT-5-Codex 一切从简处,比 GPT-5 少花了 93.7% 的计算量;而在最复杂的后 10% 任务中,Codex 选择拿出加倍资源。比 GPT-5 多花了 102.2% 的 token,来做逻辑推理、编辑、运行测试和迭代。换句话说,小任务快速,输出少;复杂大项目花更多时间思考和执行。这才是工程智能体该有的样子。如果你团队是重度依赖代码审查的,Codex 还能省下不少人工精力。官方对 Codex 的审查能力也做了测评。用三组数据说话:错误建议比例:GPT-5 的错误率是 13.7%,Codex 降到了 4.4%;高价值建议比例:GPT-5 只有 39.4%,Codex 提升到了 52.4%;平均每个 PR 留言数量:GPT-5 是 1.32 条,Codex 变成 0.93 条。少说废话,多讲重点。这套测试成绩背后的意义是什么?并不是 Codex 拿了个更好的 Benchmark 成绩,而是它证明了 Agent 式 AI 的三件事:它可以按任务复杂度分配时间;它可以读懂系统级的上下文;它能输出“工程意义上的结果”,不是看起来漂亮的代码片段,而是真正能跑、能测、能合并进主分支的代码。这也是为什么 OpenAI 说:“我们推荐把 Codex 只用在 Codex 系统里”。使用规则现在,Codex 已经打通了所有你可能写代码的地方——终端、IDE、网页端、GitHub,甚至 ChatGPT 的手机 App。无论你在哪写代码,它都能跟上节奏,随时接活。他们还对 Codex 进行了更新。CLI 体验更新了 UI,支持附加截图、线程图、上传设计格式了,展示工作进度和交互记录都更精细。它会在复杂任务中创建待办列表,自动进行环境搭建和依赖分析,环境初始化和 pip install 这类操作也能当场自动执行。IDE 插件支持 VS Code、Cursor 和各种分支版,你打开一个文件,Codex 就知道你在搞啥。当场进行代码进行编辑,不用重复解释 prompt。编辑器里直接跳转到云任务,所有上下文不会丢。云代理 Codex Cloud 则是最能打达自动化效率上限的部分:它能跟开浏览器,看自己生成的网页或 UI 页面,根据你给的截图进行返回渲染。如果需要,它会把运行结果的截图和日志展示给你,并提交到 GitHub PR。价格Codex 已经整合进了 ChatGPT 的全套订阅计划里,从 Plus 到 Pro,从 Business 到 Enterprise 都包含。使用次数是有上限的,但给得不算少。比如 Plus 用户,每 5 小时可以跑 30 到 150 次本地任务,一周内有总量限制。Pro 用户能跑得更多,大概是每 5 小时支持 300 到 1500 次左右的本地调用,还带“云端任务特批额度”。Business 和 Edu 版本,如果需要额外扩容,可以单独买积分;Enterprise 则干脆按共享池走,用多少算多少。Codex 不是第一个做 Agent 编程的公司,也不会是最后一个。但这可能是第一次,有人把 Agent 从“产品功能”变成了“开发流程”。现在,就看我们敢不敢把一部分真实的项目,交给它了。

阅读原文
跳转微信打开