JetBrains:AI 智能体将重演云 ROI 危机

部署 AI 编码智能体(AI coding agents)已经不难,难的是判断它们是否真的有效,以及防止它们变成企业 IT 中又一个无人管理的失控层。
JetBrains 上周发布的 JetBrains Central 正是为了解决这个问题。它是一个面向 AI 智能体工作流(AI agent workflows)的治理和执行平台。
JetBrains 智能体平台副总裁 Oleg Koverznev 在简报中直言不讳:行业即将重演云计算的 ROI 危机。
“大家都知道 AI 是颠覆性的,”他说,“但很难证明部署这些系统能为业务带来实际回报。”
当年企业上云时,第一波投资热潮后很快就面临证明 ROI 的压力,并催生了一整个成本管理和可观测性工具类别。JetBrains 现在对智能体 AI(agentic AI)下了类似的赌注,而且比大多数玩家都早。
JetBrains 自己在 2026 年 1 月对 11,000 名开发者的 AI Pulse 调查显示,90% 的人已在工作中使用 AI,66% 的公司计划在 12 个月内采用编码智能体。但只有 13% 的公司报告在整个软件开发生命周期中使用 AI。
“代码生成(Code generation)现在很便宜,不再是瓶颈,”Koverznev 在发布文章中写道,“真正的挑战是将产出与意图对齐,并管理智能体驱动(agent-driven)工作日益增长的操作和经济复杂性。”
还没人讨论的协调难题
Koverznev 更尖锐的观点不在于 ROI 测量,而在于当智能体数量增长到没人能清楚掌握运行状况时会发生什么。
“我们设想未来会出现人类与智能体同事组成的团队,”他说,“智能体之间、智能体与人类之间的协调是个大问题——而且这个问题正在浮现。”
大多数组织目前仍在孤岛中运行智能体。但 Gartner 预测,到 2026 年底,40% 的企业应用将包含 AI 智能体,而目前这一比例还不到 5%。在这种规模下,追踪运行内容、成本以及是否达成预期目标,就成了真正的运营难题。
JetBrains Central 的解决方案是一个语义层,它聚合了来自代码库、架构、运行时行为和交付基础设施的上下文——让智能体获得系统级理解,而不仅仅是提示级的指令。
“为了获得可预测的结果,我们需要给智能体提供必要的上下文和代码理解能力,”Koverznev 说。
这进而连接到 Air Team,这是一个用于向智能体委派任务并跟踪多步骤工作流的协作空间,集成了 Slack、Atlassian 产品和 Linear。其论点是,不与现有团队系统连接的智能体工作流,会在现有协调层之上再创建一个平行的协调层。
在走向锁定的市场中,开放平台如何立足
大多数 AI 平台供应商都在构建封闭的生态系统。JetBrains 反其道而行,Koverznev 对此毫不掩饰。
“我们不想拥有整个技术栈,”他说,“我们想提供系统,让客户选择使用什么工具、什么智能体——并赋予他们控制的能力。”
组织可以连接任何 IDE 或 CLI,使用自己的 OpenAI 或其他供应商的 API 密钥,并通过 Agent Communication Protocol 接入外部智能体(如 Claude、Codex 或 Gemini CLI),无需定制集成工作。平台还计划提供本地部署选项。
“我们站在巨人的肩膀上,”Koverznev 说,“大语言模型(LLMs)提供了强大的智能——我们不与之竞争。我们把它们整合成一个可控的系统。”
“无锁定”的承诺有多强,取决于支撑它的集成能力,而这个市场的发展速度并未放缓。不过,JetBrains 至少自己也在用这个产品。“我们越来越多地依赖智能体和 AI 驱动的工作流,这产生了对成本可视性和治理的更高需求,”运营高级副总裁 Hadi Hariri 在一份声明中说,“这就是为什么我们已开始在内部试点 JetBrains Central。”
定价:固定治理费,按执行量付费
定价分为两部分:固定的按席位订阅费(涵盖 JetBrains 和第三方席位),用于治理;以及按使用量付费的智能体执行费用。Koverznev 列举了几个定价场景。
“一个开发者每月可能花 100 美元,”他说,“另一个可能编排数千个智能体,花费 10 万美元。这完全可能。”平台的任务就是让这些支出变得清晰可读,并将其与上市时间、交付成本等业务成果关联起来。
早期访问计划(Early Access Program)将于 2026 年第二季度启动,邀请有限的设计合作伙伴在真实世界的智能体工作流中测试 JetBrains Central。与此同时,这个开放平台的赌注能否成功,取决于 JetBrains 能否在市场围绕其他供应商的治理层固化之前,实现产品的全面上市。
觉得有用?分享给更多人