跳至主要內容
EMil Wu
EN
返回新聞列表

OpenAI 把 Codex 送進 Claude Code — 當競爭對手變成你的 Plugin

5 分鐘閱讀
OpenAI 把 Codex 送進 Claude Code — 當競爭對手變成你的 Plugin

昨天在滑 GitHub Trending 的時候看到一個讓我愣了幾秒的 Repo 名字:openai/codex-plugin-cc,cc 是 Claude Code 的縮寫,我第一個反應是「這是社群做的吧?」,點進去一看,三個 Contributor 都是 OpenAI 的工程師,Apache-2.0 授權,一天內 4,300 顆星。

OpenAI 官方做了一個 Plugin,讓你在 Claude Code 裡面直接用 Codex。

對,你沒看錯,不是 Anthropic 做的,是 OpenAI 自己做的,他們主動把自己的 AI Coding Agent 送進了競爭對手的生態系裡。

他能做什麼?

安裝完之後,你的 Claude Code 會多出幾個新的 Slash Command:

指令功能
/codex:review讓 Codex 對你的程式碼做標準審查(Read-only)
/codex:adversarial-review對抗式審查 — 挑戰設計決策、測試假設、找隱藏風險
/codex:rescue把 Debug、修 Regression 等任務委派給 Codex 執行
/codex:status查看背景執行中的 Codex 任務

技術上,這個 Plugin 呼叫的是你本機已安裝的 codex CLI,不是另一個獨立的 Runtime,他共用你的 Codex 認證和設定(~/.codex/config.toml),所以安裝門檻很低,只要你有 ChatGPT 訂閱或 OpenAI API Key 就能用。

為什麼 OpenAI 要這樣做?

這個問題的答案,看數字就知道了。

Claude Code 在 2025 年 11 月達到 10 億美元年化收入,上線才六個月,到了 2026 年 2 月已經翻倍到 25 億美元,在 VS Code Marketplace 的安裝量和評價都超越 Codex Extension,佔公開 GitHub Commits 大約 4%。OpenAI 的應用程式 CEO Fidji Simo 公開承認,Claude Code 和 Cowork 的成功是內部的「wake-up call」。

所以 OpenAI 的策略很清楚:既然打不過你的 Runtime,那就進去你的 Runtime。

SmartScope 的分析說得很直接:「每一次透過 Plugin 觸發的審查都在 OpenAI 的基礎設施上運行並產生計費,零用戶獲取成本,增量計費。」OpenAI 不需要開發者離開 Claude Code,只要在對手的平台上產生 Usage 就夠了。

用我們的框架來看這件事

如果你有讀過這個系列的第四篇:Skill 生態系,你應該記得我們提過一個觀點:未來 AI 的競爭不只是 Model 的競爭,而是 Skill Ecosystem 的競爭,哪個平台有最多高品質的 Skill,哪個平台就最有價值。

現在這件事正在發生,但方式比我們想像的更有趣。

第二篇建立的五層架構是:Command → Agent → [Tool + Skill] → Context,在這個架構裡,Model 只是推理引擎,第一篇就說過 Model ≠ Runtime。Codex Plugin 做的事情,本質上就是在 Claude Code 的 Runtime 裡,掛載了一個能呼叫 OpenAI Model 的 Tool

這代表什麼?同一個 Runtime 不再綁定單一 Model 了。

你可以在 Claude Code 裡讓 Claude 寫程式,然後叫 Codex 來審查,或者反過來,讓 Codex 做初版,Claude 來精煉,兩個 Model 在同一個 Runtime 裡協作,共享同一份 Codebase,不需要切換工具、不需要複製貼上、不需要維護兩套 Context。

社群已經跑在前面了

其實在 OpenAI 官方出手之前,社群早就在做多模型編排了,GitHub 上已經有好幾個專案:

  • claude-octopus — 整合 8 家供應商(Codex、Gemini、Claude、Perplexity、Qwen、Ollama 等),47 個指令
  • claude-codex — 循序審查流程,Codex 作為最終品質閘門
  • myclaude — Claude Code + Codex + Gemini 多 Agent 編排

而 Zed 編輯器也已經原生支援 Claude Code、Gemini CLI、Codex 作為外部 Agent,多模型不再是實驗,他正在變成標配。

我的觀察

或許這件事最重要的訊號不是「OpenAI 做了一個 Plugin」,而是他背後暗示的產業方向:Model 和 Runtime 正在解耦。

想想看,如果 OpenAI 願意把 Codex 送進 Claude Code,那 Google 把 Gemini 送進來也只是時間問題(事實上社群已經在做了),當每個 Runtime 都能呼叫任何 Model,開發者選 Runtime 就不再是選 Model,而是選生態系 — 誰的 Skill 最多、誰的 Plugin 最豐富、誰的工作流整合最好。

這正是第四篇預測的局面,只是來得比我想像的快。

對開發者來說,短期的實用建議是:如果你已經在用 Claude Code,試試看 /codex:adversarial-review,讓不同的 Model 互相審查程式碼,這可能是目前最低成本的多模型工作流入門方式。而長期來看,選一個你覺得生態系最完整的 Runtime 去深耕,比追逐最新的 Model 更重要。


參考資料:

支持這個系列

如果這系列文章對你有幫助,考慮請我喝杯咖啡