S
SkillNav

Anthropic回应“战争部长”表态:将就供应链风险认定提起诉讼

资讯Anthropic2026-02-27T00:00:00+00:004 分钟阅读
Anthropic回应“战争部长”表态:将就供应链风险认定提起诉讼

今日稍早,美国战争部长 Pete Hegseth 在 X 上表示,他正指示战争部将 Anthropic 认定为供应链风险。此举发生在双方数月谈判陷入僵局之后,分歧集中在我们就 Claude 合法使用提出的两项例外:针对美国人的大规模国内监控,以及全自主武器。

截至目前,我们尚未收到战争部或白宫就谈判状态发来的直接沟通。

我们一直本着诚信原则与战争部推进协议,并明确表示:除上述两项狭义例外外,我们支持 AI 在国家安全中的一切合法用途。据我们所知,这两项例外迄今并未影响任何一项政府任务。

我们坚持这两项例外,原因有二。第一,我们认为当下前沿 AI 模型的可靠性尚不足以用于全自主武器。若允许当前模型以这种方式部署,将危及美国作战人员与平民安全。第二,我们认为对美国人实施大规模国内监控,构成对基本权利的侵犯。

将 Anthropic 认定为供应链风险,将是一项前所未有的举措——这类做法在历史上通常只针对美国的对手,且从未公开适用于一家美国公司。我们对事态发展深感遗憾。作为首家将前沿 AI 模型部署进美国政府涉密网络的公司,Anthropic 自 2024 年 6 月起一直在支持美国作战人员,并将继续这样做。

我们认为,这一认定不仅缺乏法律依据,还会为任何与政府谈判的美国公司树立危险先例。

无论战争部施加何种威慑或惩罚,都不会改变我们在“大规模国内监控”与“全自主武器”问题上的立场。我们将就任何供应链风险认定在法庭上提出挑战。

这对我们的客户意味着什么

Hegseth 部长暗示,这一认定将限制所有与军方有业务往来的主体继续与 Anthropic 合作。但部长并不具备支撑该说法的法定权限。从法律上看,依据 10 USC 3252 作出的供应链风险认定,只能延伸至 Claude 在战争部合同中的使用——不能影响承包商使用 Claude 为其他客户提供服务。

在实际层面,这意味着:

  • 如果你是个人用户,或与 Anthropic 签有商业合同,你通过我们的 API、claude.ai 或任何产品访问 Claude 的能力都不会受到影响。
  • 如果你是战争部承包商,该认定(若被正式采纳)只会影响你在战争部合同工作中对 Claude 的使用。你在其他用途上的使用不受影响。

我们的销售与支持团队已就位,随时解答你的问题。

我们由衷感谢我们的用户,以及近期公开表达支持的行业同仁、政策制定者、退伍军人与公众成员。谢谢你们。最重要的是,我们当前的优先事项是:保护客户免受这类非常事件带来的任何业务中断,并与战争部协作,确保平稳过渡——为了客户、为了我们的部队,也为了美国军事行动。

相关内容

Dario Amodei 就与战争部讨论发布声明

来自我们 CEO 的一则声明,聚焦 AI 在国家安全中的应用。

Read more

Anthropic 收购 Vercept,推进 Claude 的计算机使用能力

Read more

Anthropic《负责任扩展政策》3.0 版

Read more

原文链接:https://www.anthropic.com/news/statement-comments-secretary-war

相关文章

资讯OpenAI·3月4日
OpenAI 推出学习成果测量套件,评估 AI 对教育成效的长期影响

OpenAI 发布了 Learning Outcomes Measurement Suite,用于系统评估 AI 在教育场景中的实际学习成效。该套件强调跨不同教学环境、并在更长时间周期内跟踪学生学习结果,帮助更准确判断 AI 的教育价值。

1 分钟
深度OpenAI·3月4日
Axios 如何用 AI 放大本地新闻影响力

Axios 首席运营官 Allison Murphy 介绍了公司如何将 AI 用于本地新闻生产。核心做法是借助 AI 支持一线本地记者、优化新闻编辑部流程,并以更高效率扩大高影响力本地报道的覆盖规模。

1 分钟