强化学习新范式:不用TD的递推算法
深度2025年11月1日8 分钟阅读

传统强化学习依赖时序差分(TD)学习,但在长序列任务中误差累积严重。伯克利BAIR团队提出了一种基于“分而治之”的新算法——传递性强化学习(TRL),它通过递归分割轨迹来更新价值函数,在复杂任务上表现优异。
本文编译自 RL without TD learning,版权归原作者所有。
觉得有用?分享给更多人

觉得有用?分享给更多人
Claude Opus 4.7 在 SWE-Bench Pro 等多项编码基准测试中提升显著,最高达 11 分。模型支持高达 2576 像素的长边图像输入,视觉能力大幅增强。尽管新分词器可能导致 token 使用量增加 35%,但推理效率的提升使整体 token 成本仍可能下降一半。
本文基于对 AWS 工程师 Clare Liguori 的采访,探讨了亚马逊在 MCP 项目中的角色,包括托管服务器、贡献新功能如 Tasks 和 Elicitations,以及作为实验平台测试草案概念。文章还展望了 MCP 在非技术公司的应用前景,如通过 Amazon Quick 等工具降低使用门槛。