OpenAI 推出新插件,Claude Code 现在能用上 Codex
最近,OpenAI 在 GitHub 上悄悄上线了一个名叫 codex-plugin-cc 的开源工具,没搞什么发布会,也没发新闻稿,但开发者圈子里已经有人开始偷偷用起来了。这个插件让 Anthropic 的 Claude Code —— 一个原本只用自家模型的命令行编程助手——可以直接调用 OpenAI 的 Codex 模型。
听起来不复杂,但实际意义不小。过去你想用 GPT-4 的代码能力,得切到 ChatGPT 或 GitHub Copilot;想用 Claude 的逻辑推理,又得换回它的官方工具。现在,你只需要在 Claude Code 里敲一条命令,就能让两个模型同时帮你写代码、看代码、挑毛病。

怎么用?几个实用指令,上手就能省时间
插件安装后,你不需要改配置、搭环境,直接在 Claude Code 的输入框里输入以下命令就行:
/codex:review—— 让 Codex 从旁观者角度帮你审查代码,不改你的逻辑,只提建议。适合在提交前快速过一遍,找找那些“看起来没问题,但其实有坑”的细节。/codex:adversarial-review—— 这个功能挺狠。你让它“故意找茬”,专门挑你架构里最脆弱的地方:比如“这个接口如果并发量翻十倍会不会崩?”、“这个缓存策略在生产环境能扛住突发流量吗?”。很多团队靠这个提前暴露了没意识到的隐患。/codex:rescue—— 遇到一个卡了两天的 bug,自己越改越乱?直接丢给它:“帮我修这个函数,别解释,直接给结果”。Codex 会独立跑一遍调试流程,返回修复后的代码,你只需要确认是否合理。
有人测试过,在一个中等规模的 Python 项目里,用 /codex:review + /codex:adversarial-review 两轮检查,比单靠 Claude 或 Copilot 单独看,多发现了 37% 的潜在边界问题(数据来自 Reddit 上一位开发者分享的实测)。
为什么这个插件能火起来?
不是因为技术多炫,而是因为它解决了真实痛点:工具割裂。
很多团队早就用上了 Claude Code,因为它的对话式交互更自然,解释代码比 Copilot 更清楚。但 Codex 在代码补全、函数生成、API 调用方面,依然是业界公认最稳的。现在,不用换工具、不用开两个终端、不用来回复制粘贴,你可以在同一个窗口里,让 Claude 做“解释员”,Codex 做“编码员”。
更关键的是,这玩意儿是开源的。你可以在本地跑,不依赖云服务;也可以自己改插件逻辑,比如加个公司内部的代码规范检查。GitHub 上已经有开发者提交了支持 VS Code 和 JetBrains IDE 的适配分支,预计下个月会陆续合并。
现在就能用,但别指望它包办一切
这个插件目前只支持 Linux 和 macOS,Windows 用户还在等 WSL2 支持。另外,它需要你有 OpenAI 的 API Key,且账户有 Codex 访问权限(目前仅限部分企业用户和付费开发者)。免费用户暂时还用不了。
但它确实提供了一种新的工作流:不是让 AI 替你写代码,而是让你用两个不同的 AI,互相校验、互相补充。就像请了两个经验丰富的同事一起帮你 code review,一个温和细致,一个犀利刁钻。
项目地址:https://github.com/openai/codex-plugin-cc
如果你每天写代码,而且讨厌在不同工具之间来回切换,这个插件值得花十分钟试一试。不花钱,不复杂,但可能真能帮你少踩几个坑。