OpenAI Codex 支持插件,三巨头 AI 编程助手功能趋同

OpenAI 本周宣布为 Codex 添加插件功能。这些插件将 Box、Figma、Linear、Notion、Sentry、Slack、Gmail 和 Hugging Face 等第三方服务的可复用工作流、MCP 服务器和应用集成打包成可安装包,供 Codex 应用使用。
这一举措让人联想到 Anthropic 在 Claude Code 及其桌面应用中的做法,以及 Google 的 Gemini CLI——两者都已提供类似的系统。但更重要的是,这也是 OpenAI 为 Codex 引入更多非直接编码相关工具的一步,可能会让那些考虑转向 Anthropic 桌面应用 Claude 和 Claude Cowork 的用户更倾向于选择 Codex。
如果 Codex 要成为 OpenAI 的“超级应用”的核心,它就必须超越编码功能。这次插件更新感觉是朝这个方向迈出的第一步。

图片来源:OpenAI。
当然,许多新插件仍与编码相关,但值得注意的是,这第一批插件将 Codex 推向了代码编写前后的规划、研究和协调阶段。
插件可以将所有组件打包成一个安装包,团队可以在开发者之间标准化使用,而不需要每个人手动组装单独的 MCP 服务器和自定义指令。
插件架构
Codex 插件的核心是将技能(现在几乎所有 AI 公司都支持的基于 Markdown 的工作流)与可选的应用连接器和外部工具的 MCP 服务器打包在一起。首发时有 20 多个插件可用,用户可以在 Codex 应用、CLI 和 OpenAI 的 VS Code 扩展中使用它们。
有趣的是,OpenAI 将这些插件放在了 Codex 用户界面的显眼位置,在“新会话”按钮下方有一个专用标签页。点击它会进入应用内的精选目录。自助发布功能尚未开放,但对更多插件的支持即将推出。
在 Codex CLI 中,可以使用 /plugins 命令从终端安装插件。

图片来源:OpenAI。
目前目录中一个较复杂的插件示例是“构建 Web 应用”插件。它打包了 Stripe、Supabase 和 Vercel 的 MCP 服务器,并附带专用技能,用于部署到 Vercel、构建前端以及使用这些第三方服务的最佳实践。
其他厂商的情况
Anthropic 的 Claude Code 今年早些时候就已提供插件,同样将 MCP 服务器、技能、斜杠命令和钩子打包成一键安装包。Anthropic 也在其应用中内置了市场,开发者还可以发布到仓库级或个人市场(这一功能即将登陆 Codex)。
Google 的 Gemini CLI 和 Antigravity(该公司以 AI 为中心的 IDE)将这些插件称为“扩展”,但其实现与 Anthropic 和 OpenAI 非常相似:MCP 服务器、自定义命令、智能体技能、钩子和主题,通过 GitHub 或内置注册表分发。Google 最近还添加了扩展设置,在安装时提示用户配置如 API 密钥等信息,并将其存储在系统密钥链中。
总的来说,现在三大厂商的插件/扩展都采用了相同的架构。在它们和 Codex 之间切换也相当容易。OpenAI 明确提到:“如果你已经有来自其他生态系统的插件或自己构建的插件,可以使用 @plugin-creator 将其添加到本地市场。”
这个插件创建工具(也模仿了 Claude Code 和 Cowork 中的类似功能)让你只需描述所需功能,就能构建新插件——或者至少为其创建脚手架。
觉得有用?分享给更多人