中国开源 AI 下载量反超美国,但英伟达仍掌控底层

深度The New Stack2026年3月20日4 分钟阅读
中国开源 AI 下载量反超美国,但英伟达仍掌控底层
Hugging Face 最新数据显示,中国开源 AI 模型在下载量和采用率上已超越美国。然而,这些模型运行的底层基础设施仍牢牢掌握在英伟达手中。

AI 领域的聚光灯通常聚焦在头部实验室的大模型上——Anthropic 的 Claude、OpenAI 的 GPT 和 Google 的 Gemini。这些系统在高端市场设定节奏,模型规模和上下文窗口(Context Window)不断增大。

但与此同时,一个平行市场也在这些巨头身旁悄然兴起。开源模型——设计为可下载、适配并在不同环境中运行——正受到那些希望更好控制成本、部署(Deployment)和定制化的开发者的稳步接纳。

这种活动在 Hugging Face 上或许最为明显。这个平台是开发者分享模型、数据集和相关工具的首选地,它功能上很像 GitHub,但专为 AI 领域服务,成为了观察开源模型实际使用情况的一扇窗口。

直到最近,美国团队还在很大程度上主导着这个生态,包括 Meta 的 Llama 家族。但过去几个月 Hugging Face 持续流出的数据表明,平衡已经发生转变,中国正成为开源模型的主要生产者和使用者。

在其最新报告《State of Open Source on Hugging Face: Spring 2026》中,该公司强调了 AI 模型领域的几大转变——从开发者最常基于哪些系统构建,到大科技公司在生态中的角色。但最引人注目的还是地理格局的变化——重心正向中国转移。

然而,这远非一次彻底的转换:中国在模型本身上取得进展的同时,这些模型运行所依赖的基础设施仍牢牢掌握在英伟达手中。

“DeepSeek 时刻”:中国开源 AI 的崛起

麻省理工学院和 Hugging Face 去年 11 月联合发布的一项研究发现,截至 2025 年 8 月,中国开发的开源模型约占下载量的 17%,以微弱优势超过美国的 15.8%——这是中国首次在该指标上领先。但该结果仅限于一个单一年度窗口。最新的 Hugging Face 数据则指向一个更大的转变:中国目前在近期月度下载量上领先,并且在过去大约四年的累计总下载量上也已反超。

变化首先体现在使用量上。在 2025 年 2 月至 2026 年 2 月期间,中国模型占下载量的 41%,而美国为 36.5%。

The geography of open source

开源的地理分布(来源:Hugging Face)

这一转变部分是由像 DeepSeek R1 这类模型的病毒式传播推动的。该模型于 2025 年 1 月发布后席卷 AI 界,以较低成本提供了媲美领先系统的性能,并且其权重可供开发者运行和适配。

这最终成为了其他中国公司跟进的开端。例如,百度从 2024 年在 Hugging Face 上零发布,到 2025 年发布了超过 100 个模型。根据 Hugging Face 数据,TikTok 母公司字节跳动和腾讯各自的产出也增长了多达 9 倍。而此前专注于闭源系统的公司,如 MiniMax,也已开始公开发布模型。

本周三,中国智能手机制造商小米发布了 MiMo-V2-Pro,这是一个万亿参数模型,据称能以极低成本接近美国领先系统的性能,并计划在模型稳定后发布开源权重。

中国模型发布量的激增也反映在部署数据上。追踪其基础设施使用情况的 RunPod 报告发现,阿里巴巴的 Qwen 系列模型已经超越 Meta 的 Llama,成为部署最广泛的自主托管大语言模型(LLM)。

同样的模式也出现在 Hugging Face 上,体现在开发者选择基于什么进行构建。来自阿里巴巴的模型——包括 Qwen——已经衍生出超过 10 万个派生模型,反映了这些系统被广泛适配和复用。

Derivatives on Hugging Face by Organization

Hugging Face 上按组织的派生模型数量(来源:Hugging Face)

另一个信号来自开发者对平台上模型的反应。在 Hugging Face 上,“点赞”是一个简单的人气指标——显示哪些模型吸引了关注。

一年前,最受点赞的模型主要集中在 Meta 的 Llama 模型周围,占据了前五名中的三席。快进 12 个月,中国的 DeepSeek-R1 现已位居第一,同时有更多来自美国以外的模型出现在前列。

Most 'liked' models on Hugging Face

Hugging Face 上最“受赞”的模型(来源:Hugging Face)

可以说,开发者的偏好已从 Meta 转向了来自中国、德国和英国等更广泛的参与者。

英伟达与硬件因素

可以说,AI 热潮中涌现的最大故事之一就是英伟达——这家曾经以驱动游戏显卡闻名的芯片设计公司,成功抓住了用于训练和运行 AI 模型的 GPU 需求激增的机遇。如今,英伟达已是全球市值最高的上市公司,其市值在去年峰值时超过 5 万亿美元。

不过,硬件只是故事的一部分。英伟达一直在向软件栈上游推进,开发自己的软件、模型和工具,旨在塑造 AI 系统的构建和部署方式——这是为了将开发者更紧密地绑定在其生态中。

在 Hugging Face 上,这一推进也体现在该公司不断增长的仓库(Repository)数量上。到 2025 年底,英伟达在该平台上建立了超过 350 个仓库——比任何其他被追踪的组织都多——反映了其贡献的稳步增长。

Nvidia tops the Hugging Face repo count

英伟达在 Hugging Face 仓库数量上领先(来源:Hugging Face)

这一增长充分反映了英伟达近期如何将其影响力从硬件扩展到软件和模型层。这包括其 Nemotron 模型家族以及 NemoClaw(一个用于 AI 智能体(Agent)的开源平台)等项目。

现实情况是,大多数 AI 模型仍然设计为在英伟达 GPU 上运行。即使对替代硬件的支持有所改善——包括 AMD 系统以及越来越多由中国公司开发的芯片——但生态系统的大部分仍继续依赖英伟达的架构。

这种依赖性有助于解释为什么英伟达在该领域投入如此巨大。该公司已概述了与 AI 基础设施相关的数千亿美元支出计划,包括据报道在未来五年内投资 260 亿美元用于开发开源 AI 模型,这突显了其业务与模型使用增长的紧密联系。逻辑相当简单:如果这些模型针对英伟达硬件进行调优,它们将加强该公司对整个 AI 技术栈的控制。

与此同时,一些推动开源模型采用的中国公司也在努力减少对美国硬件的依赖。例如,阿里巴巴一直在投资研发专注于推理的芯片,旨在国内数据中心运行开源模型。然而,这些努力仍处于早期阶段,尚未取代现有的技术栈。

目前,这留下了一个清晰的分野。在模型层面,Hugging Face 数据显示中国开发者正在产出和采用上取得进展。但在基础设施层面,英伟达仍然是这些模型如何运行的核心。

这是一个云时代就熟悉的故事:少数美国公司控制着大部分底层基础设施,即使其他公司试图构建替代方案。欧洲正处于减少对这些供应商依赖的过程中,但迄今为止成果有限。

同样的担忧现在也出现在 AI 领域,而 AI 正构建在相同的云层之上。开源模型可能像野火一样蔓延,但归根结底,它们仍然运行在别人的机器上——无论哪个国家在引领潮流。

觉得有用?分享给更多人

获取每周 AI 工具精选

工具推荐、实战教程和生态洞察,每周更新。

相关文章

Simon Willison 正在重构 LLM Python 库的抽象层,以支持服务器端工具执行等新功能。他利用 Claude Code 分析了四大 LLM 提供商的客户端库,生成了用于测试的 curl 命令和 JSON 输出。这些调研材料已开源,旨在帮助设计更通用的 API 抽象。

深度Simon Willison·4月5日·1 分钟

智能体技能——包含程序性知识和可执行资源的结构化包,供智能体在推理时动态加载——已成为增强 LLM 智能体的可靠机制。然而,推理时技能增强存在根本性限制:检索噪声引入无关指导,注入的技能内容带来大量 token 开销,而模型从未真正习得它所遵循的知识。我们提出一个问题:技能是否可以被内化到模型参数中,使其在无需任何运行时技能检索的情况下实现零样本自主行为?我们提出 Skill0,一个专为技能内化设计的上下文强化学习框架。Skill0 引入了一种训练时课程,从提供完整技能上下文开始,逐步撤除。技能按类别离线分组,并与交互历史一起渲染为紧凑的视觉上下文,教授模型工具调用和多轮任务完成。动态课程机制…

深度·4月5日·17 分钟

评论