Codex 智能体工作流提速 40%:WebSocket 连接与缓存优化
深度OpenAI2026年4月22日5 分钟阅读

Codex 团队通过 WebSocket 持久连接和连接范围内的缓存,将智能体工作流的端到端延迟降低了 40%。这项优化让 GPT-5.3-Codex-Spark 模型的推理速度从 65 TPS 提升至近 1000 TPS,并已在 Vercel、Cline 等开发工具中落地。
觉得有用?分享给更多人

觉得有用?分享给更多人
OpenAI 与微软修改协议取消独家授权后,AWS 火速在 Bedrock 上架 OpenAI 最新模型、Codex 和全新智能体服务 Bedrock Managed Agents。亚马逊称这标志着“更深层次合作的开始”,而微软则转向 Anthropic 和 Claude 驱动的智能体产品。
SAS 发布 Viya MCP Server,通过 Model Context Protocol 将分析能力开放给 Claude、Copilot 等任意 AI Agent。同时推出的还有 Agentic AI Accelerator、营销多智能体系统及供应链智能体,背后是行业专有模型和治理平台 AI Navigator。