SPPO:面向长程推理任务的序列级PPO算法
深度2026年4月10日29 分钟阅读
SPPO巧妙解决了长链思维推理中时间信用分配不稳定和价值模型内存成本过高的问题,同时避免了GRPO等方法的计算开销。该研究为大语言模型在复杂推理任务中的高效对齐提供了新思路,适合强化学习、大模型对齐和自动推理领域的研究者阅读。
本文编译自 SPPO: Sequence-Level PPO for Long-Horizon Reasoning Tasks,版权归原作者所有。
觉得有用?分享给更多人
觉得有用?分享给更多人
Unweight 是 Cloudflare 开发的 LLM 权重无损压缩系统,通过 Huffman 编码压缩指数字节,在 H100 GPU 上实现 15-22% 的模型体积缩减。系统提供四种执行流水线,根据工作负载动态选择最优解压策略,减少内存带宽压力,提升推理效率。
Claude Opus 4.7 在 SWE-Bench Pro 等多项编码基准测试中提升显著,最高达 11 分。模型支持高达 2576 像素的长边图像输入,视觉能力大幅增强。尽管新分词器可能导致 token 使用量增加 35%,但推理效率的提升使整体 token 成本仍可能下降一半。