Codex 智能体工作流提速 40%:WebSocket 连接与缓存优化

深度OpenAI2026年4月22日5 分钟阅读
Codex 智能体工作流提速 40%:WebSocket 连接与缓存优化
Codex 团队通过 WebSocket 持久连接和连接范围内的缓存,将智能体工作流的端到端延迟降低了 40%。这项优化让 GPT-5.3-Codex-Spark 模型的推理速度从 65 TPS 提升至近 1000 TPS,并已在 Vercel、Cline 等开发工具中落地。
本文编译自 Speeding up agentic workflows with WebSockets in the Responses API,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

OpenAI 与微软修改协议取消独家授权后,AWS 火速在 Bedrock 上架 OpenAI 最新模型、Codex 和全新智能体服务 Bedrock Managed Agents。亚马逊称这标志着“更深层次合作的开始”,而微软则转向 Anthropic 和 Claude 驱动的智能体产品。

深度·4月28日·2 分钟

SAS 发布 Viya MCP Server,通过 Model Context Protocol 将分析能力开放给 Claude、Copilot 等任意 AI Agent。同时推出的还有 Agentic AI Accelerator、营销多智能体系统及供应链智能体,背后是行业专有模型和治理平台 AI Navigator。

深度The New Stack·4月28日·4 分钟

评论