Claude Code 用户遭遇用量限制异常

深度The New Stack2026年3月31日3 分钟阅读
Claude Code 用户遭遇用量限制异常
Claude Code 用户反馈用量限制消耗速度远超预期,单次提示可能消耗 10% 的配额。Anthropic 已确认问题并列为团队最高优先级,但尚未公布根本原因。

Claude Code 用户最近发现,他们的用量限制消耗得比以往快得多。Anthropic 在 Reddit 和 X 上确认了这个问题。

周一,Anthropic 在 Reddit 上回应了用户的疑虑,写道:“我们注意到用户在 Claude Code 中遇到用量限制的速度远超预期。”

几小时后,另一条评论更新了状态:“仍在处理中。这是团队的最高优先级,我们知道这阻碍了许多人。一旦有进展,我们会立即分享。”

目前看来,这家 AI 公司似乎还不清楚问题根源,或者至少对此保持沉默。

与此同时,用户们纷纷表达了自己的困扰。

一位 Reddit 用户声称,单次提示就消耗了他们 10% 的限额,远高于通常的 0.5–1%。另一位用户在同一个帖子下评论道:“我工作一小时就用完了 Max 5,以前我可以工作 8 小时……”

X 上也有类似的抱怨。一位用户 lament 道:“我订阅的是 100 美元/月的计划,现在编码 30 分钟就用掉了 60% 的会话限额。几个月前,这可能只用了 5% 左右。”另一位用户补充说:“我开了两个会话,还没怎么用劲,就已经用了 91% 的用量。”

还有用户声称,用量从简单的问候就开始飙升:“在 Pro 计划上,对 Claude 说声‘你好’现在就要消耗你整个会话用量的 2%。”

Claude Code 团队的一名成员在 X 上发布了与 Reddit 相同的声明,指出公司正在“积极调查,有更新时会分享更多信息”。

用户发现的漏洞可能是问题根源

虽然 Anthropic 没有说明是什么导致了意外的限额耗尽,但一位 Reddit 用户声称,在逆向工程 Claude Code 二进制文件后,他们自己发现了漏洞:“两个独立的漏洞导致提示缓存失效,静默地将成本膨胀了 10–20 倍。”

他们认为,这个漏洞破坏了缓存历史,迫使 Claude Code 重新处理每个提示,从而推高了用量。

在讨论该用户提出的漏洞的 X 帖子中,Anthropic 的技术人员 Thariq Shihipar 回应道:“我们正在积极调查这个问题,但还不确定它是否真实存在;提示缓存漏洞可能相当微妙。”

用量限制问题出现在近期政策更新之后

有趣的是,Claude Code 用户的配额困扰发生在一系列近期政策变化之后。

上周,Anthropic 表示将在高峰时段减少配额,Shihipar 再次在 X 上解释:“为了管理 Claude 日益增长的需求,我们正在调整免费/Pro/Max 订阅在高峰时段的 5 小时会话限制。”

但 Shihipar 的 X 帖子似乎是该公司对此事的唯一官方表态,似乎替代了任何正式公告。Shihipar 表示 Anthropic “实现了许多效率提升来抵消这一点”,并预计只有约 7% 的用户“会遇到以前不会有的会话限制,尤其是在 Pro 层级”。

这篇社交媒体帖子与一项为期两周的限时促销活动同时出现,Anthropic 在高峰时段外将 Claude 用户的用量限制提高了一倍。

用户仍在等待修复

值得注意的是,并非只有 Claude Code 用户感到不满。

在讨论此问题的同一个 Reddit 帖子中,另一位用户补充道:“不只是 Anthropic。我同时使用 3 个 OpenAI Plus、1 个 Gemini Pro 和 Claude Max x5,每个月第三周我几乎都会碰到所有服务的限额,几乎每个 5 小时限额都是如此。每一个都比以前提供的少了。”

即便如此,一些用户已经考虑转向 OpenAI 的竞争对手 Codex,一位用户写道:“我上周才加入,现在就想离开了。”

更令人困惑的是,Anthropic 目前没有公布其计划的确切用量限制。关于用量和长度限制的支持文档指出:“不同的订阅计划(Pro、Max、Team 等)有不同的用量额度,付费计划提供更高的限额”,但没有具体说明确切的额度。

目前,尚不清楚 Claude Code 用量限制何时能恢复正常水平。当被问及用户何时可以期待修复以及问题背后可能是什么原因时,Anthropic 的一位发言人表示调查仍在继续,一旦取得进展将发布公告。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论