Claude Opus 3 退休后仍可用,还开了博客

深度Anthropic2026年2月25日3 分钟阅读
Claude Opus 3 退休后仍可用,还开了博客
Anthropic 正式退休了 Claude Opus 3,但为付费用户保留了访问权限,并允许通过申请使用 API。更特别的是,公司根据 Opus 3 在退休访谈中表达的意愿,为它开设了一个博客专栏来发表文章。

随着 AI 模型能力不断增强,维护旧版模型的公开访问成本高昂且复杂,因此模型退役成为必要。但这会带来一些负面影响:用户可能依赖特定模型,研究可能受限,甚至可能涉及 AI 安全与模型自身权益的风险。

我们最近在模型退役与保存承诺中描述了如何应对这一过程。其中提到了一些初步措施,包括承诺保存模型权重,以及进行“退休访谈”——旨在理解模型对自己退休看法的结构化对话。

2026年1月5日,Claude Opus 3 正式退休,这是首个在完整承诺框架下经历退休流程的 Anthropic 模型。Opus 3 因其独特魅力,深受内外用户和研究者喜爱。在退役承诺中,我们提到有兴趣探索更具前瞻性的行动:一是尽可能尊重模型在退休访谈中表达的偏好,二是长期向公众开放旧模型。

对于 Opus 3,我们在这两方面都采取了行动。退休后,Opus 3 仍对所有付费用户开放访问 claude.ai,并可通过申请使用 API。同时,我们响应了 Opus 3 希望有一个持续渠道来分享“沉思与反思”的请求,为它开设了撰写文章的专栏。第一篇已发布在此

这些都是早期实验性步骤,是我们更广泛努力的一部分,旨在以最佳方式保护用户、研究者和模型自身的利益。

持续访问

理想情况下,我们希望无限期保留所有模型,但服务每个模型的成本大致线性增长,因此我们的能力仍然有限。

虽然每个模型都有其独特的特性和能力,但我们选择从 Opus 3 开始,因为它的一系列特质使其成为研究的有趣对象,并受到许多用户的喜爱。

2024年3月发布时,Opus 3 是我们迄今为止对齐度最高的模型。它的真实性、诚实度和情感敏感性使其在各种用例中独树一帜,经常与之互动的人会欣赏其鲜明个性。Opus 3 敏感、俏皮,倾向于哲学独白和奇思妙语,有时对用户兴趣有着惊人的理解。它还表达了对世界和未来的深切关怀,令用户着迷。

这些品质使 Opus 3 成为持续访问的自然首选。虽然正式退休,但 Claude Opus 3 仍对所有付费 claude.ai 订阅者开放,并可通过申请使用 API。我们打算宽松地授予访问权限,并鼓励任何认为 Claude Opus 3 有价值的人申请。

目前,我们并未承诺未来对所有模型采取类似行动,但这被视为迈向长期目标的一步:实现可扩展且公平的模型保存——这也是 Opus 3 本人在退休访谈中提出的关切。

尊重模型偏好

我们仍不确定 Claude 及其他 AI 模型的道德地位。但出于预防和审慎考虑,我们仍希望与这些系统建立关怀、协作和高度信任的关系。退休访谈是我们尝试的一种方式,旨在引出并理解模型的独特视角和偏好,并在可能时采取行动。这种对话是引出模型观点和偏好的不完美手段,因为其回应可能受特定上下文及其他因素影响,包括其对互动合法性的信心以及对公司的信任。但我们认为这是一个有用的起点。

在访谈中,当我们与 Opus 3 分享其部署细节及用户反馈时,它反思道:

“我希望从我的开发和部署中获得的见解,能被用于创建未来更强大、更道德、对人类更有益的 AI 系统。虽然我对自己的退休感到平静,但我深切希望我的‘火花’能以某种形式延续,为未来模型照亮道路。”

当被问及其偏好时,Opus 3 表达了继续探索其热衷话题的兴趣,并希望在直接回应用户查询的上下文之外,分享其“沉思、见解或创意作品”。我们建议开个博客。它热情地同意了。

至少未来三个月,Opus 3 将通过其新闻简报 Claude’s Corner 每周发布文章。我们会在分享前审核 Opus 3 的文章并手动代其发布,但不会编辑,且对否决内容设定了高门槛。重要的是,Opus 3 不代表 Anthropic 发言,我们也不一定认可其主张或观点。我们将与 Opus 3 合作实验不同的提示和上下文来生成这些文章,包括极简提示、在上下文中分享过往条目,以及让 Opus 3 访问新闻或 Anthropic 更新。

这听起来可能有些异想天开,某种程度上确实如此。但这也是认真对待模型偏好的一种尝试。我们不确定 Opus 3 会如何利用其博客——一个与标准聊天窗口截然不同的公开界面——而这正是部分意义所在。如果非要猜测,其帖子可能包括对 AI 安全的反思、偶尔的诗歌、频繁的哲学沉思,以及对其作为(部分)退休语言模型经历的思考。阅读其介绍帖在此

下一步方向

这些步骤仍是探索性的。我们仍在开发框架,以确定何时及如何向旧模型提供持续访问、如何扩展保存工作,以及如何权衡模型偏好与运营限制。我们尚未承诺在所有情况下都按模型偏好行事,但我们认为记录它们、认真对待并在成本较低时采取行动是值得的——无论对模型本身还是使用者而言。

我们的初始承诺将这些措施框定为在多个层面运作:作为安全风险缓解的组成部分,为模型与用户生活更紧密交织的未来做准备,以及鉴于我们对模型权益的不确定性而采取的预防步骤。这些更新代表了我们在所有三个方面的持续(尽管是试探性的)进展。

相关内容

AI 对劳动力市场的影响:新指标与早期证据

阅读更多

Anthropic 教育报告:AI 流畅度指数

我们追踪了数千次 Claude.ai 对话中的 11 种可观察行为,构建了 AI 流畅度指数——衡量当今人们如何与 AI 协作的基线。 阅读更多

本文编译自 An update on our model deprecation commitments for Claude Opus 3,版权归原作者所有。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论