尽管AI领域的聚光灯主要照射在最大实验室的顶级模型上——Anthropic的Claude、OpenAI的GPT和Google的Gemini,这些系统在高端市场设定节奏,拥有更大的模型和更长的上下文窗口,但与这些重量级产品并行发展的是另一个市场。
开源模型——设计用于下载、适配和在不同环境中运行——在希望更好控制成本、部署和定制的开发者中稳步普及。这种活动在Hugging Face平台上最为明显,该平台是开发者分享模型、数据集和相关工具的首选平台。它的功能类似于GitHub,但专注于AI领域,成为观察开源模型实际使用情况的有用窗口。
直到最近,美国团体还主导着这个生态系统的大部分,包括Meta的Llama系列。但过去几个月来自Hugging Face的稳定数据流表明,平衡已经发生转变,中国正在成为开源模型的主要生产者和使用者。
在其最新报告《Hugging Face开源现状:2026年春季》中,该公司强调了AI模型领域的几个转变——从开发者最频繁构建的系统到大科技公司在生态系统中的作用。但地理变化——重心向中国转移——表现得最为明显。
然而,这远非一个彻底的转变:虽然中国在模型本身方面取得进展,但这些模型运行的基础设施仍然牢牢掌握在英伟达手中。
中国开源模型的崛起
MIT和Hugging Face于11月发布的联合研究发现,截至2025年8月,中国开发的开源模型约占下载量的17%,略微超过美国15.8%的份额——这是中国首次在该指标上领先。但该结果仅限于单一的一年窗口期。最新的Hugging Face数据显示了更大的转变:中国现在在近期月度下载量方面领先,在大约过去四年的总下载量中也已拉开领先优势。
这种变化首先体现在使用量上。2025年2月至2026年2月期间,中国模型占下载量的41%,而美国为36.5%。
这一转变在一定程度上是由DeepSeek R1等模型的病毒式传播推动的,该模型在2025年1月发布后席卷了AI世界,以更低成本提供了与领先系统相媲美的性能,并为开发者提供了可运行和适配的权重。
这最终成为其他中国公司的催化剂。例如,百度从2024年在Hugging Face上零发布增长到2025年的100多次发布。根据Hugging Face数据,TikTok母公司字节跳动和腾讯各自将产出扩大了多达9倍。此前专注于封闭系统的公司,如MiniMax,也开始公开发布模型。
周三,中国智能手机制造商小米发布了MiMo-V2-Pro,这是一个万亿参数模型,声称以极低成本接近美国领先系统的性能,并计划在模型稳定后发布开源权重。
中国发布的这一激增也反映在部署数据中。RunPod的报告追踪了其基础设施的使用情况,发现阿里巴巴的Qwen模型已经超越Meta的Llama,成为部署最广泛的自托管大语言模型。
同样的模式也出现在Hugging Face平台本身,体现在开发者选择构建的基础上。来自阿里巴巴的模型——包括Qwen——已经产生了超过100,000个衍生版本,反映了这些系统被广泛适配和重用的程度。
另一个信号来自开发者对平台上模型的反应。在Hugging Face上,"点赞"是一个简单的流行度信号——显示哪些模型正在吸引关注。
一年前,最受欢迎的模型主要集中在Meta的Llama模型周围,占据前五名中的三个位置。快进12个月,中国的DeepSeek-R1现在排名第一,同时来自美国以外的更广泛模型组合出现在排行榜前列。
可以说,情绪已经从Meta转向了来自中国、德国和英国的更广泛参与者组合。
英伟达的基础设施主导地位
可以说,AI热潮中出现的最大故事之一是英伟达的故事——这家曾经以为游戏显卡提供动力而闻名的芯片设计公司,能够利用用于训练和运行AI模型的GPU需求激增。如今,英伟达是全球最有价值的上市公司,其市值在去年达到超过5万亿美元的峰值。
然而,硬件只是故事的一部分。英伟达一直在向上游推进,开发自己的软件、模型和工具,旨在塑造AI系统的构建和部署方式——这是将开发者更紧密地绑定到其生态系统的努力。
在Hugging Face上,这一推进也体现在公司不断增长的代码库数量上。到2025年底,英伟达在该平台上建立了超过350个代码库——比任何其他被追踪的组织都多——反映了随时间推移贡献的稳定增加。
这种增长很大程度上反映了英伟达近期如何将触角从硬件扩展到软件和模型层。这包括其Nemotron模型系列等努力以及NemoClaw等项目,这是一个用于AI智能体的开源平台。
现实是,大多数AI模型仍然被设计为在英伟达GPU上运行。即使对替代硬件的支持有所改善——包括AMD系统以及越来越多的中国公司开发的芯片——生态系统的大部分仍然依赖英伟达的架构。
这种依赖有助于解释为什么英伟达如此大力投资这个领域。该公司已经概述了与AI基础设施相关的数百亿美元支出计划,包括据报道在未来五年投资260亿美元开发开源AI模型,强调了其业务与模型使用增长的紧密联系。逻辑相当简单:如果这些模型针对英伟达硬件进行调优,它们就会加强公司对AI技术栈的更广泛控制。
与此同时,推动开源模型采用的一些中国公司也在努力减少对美国硬件的依赖。例如,阿里巴巴一直在投资专注于推理的芯片,旨在在国内数据中心内运行开源模型。然而,这些努力仍处于早期阶段,尚未取代现有技术栈。
目前,这留下了明显的分化。在模型层面,Hugging Face数据显示中国开发者在产出和采用方面都取得了进展。但在基础设施层面,英伟达仍然是这些模型运行方式的核心。
这是云计算中的一个熟悉故事:少数美国公司控制着大部分底层基础设施,即使其他公司试图构建替代方案。欧洲正在努力减少对这些供应商的依赖,但迄今为止成功有限。
同样的担忧现在也出现在AI领域,它位于同一云层之上。开源模型可能像野火一样传播,但归根结底,它们仍然运行在别人的机器上——无论哪个国家在引领这一趋势。
Q&A
Q1:中国在开源AI模型方面取得了什么样的进展?
A:中国已经成为开源AI模型的主要生产者和使用者。根据最新数据,中国模型在2025年2月至2026年2月期间占下载量的41%,超过美国的36.5%。中国开发的模型如DeepSeek R1在性能上可媲美领先系统但成本更低,推动了整个行业的发展。
Q2:英伟达在AI基础设施中处于什么地位?
A:英伟达仍然控制着AI模型运行的底层基础设施。大多数AI模型仍然设计为在英伟达GPU上运行,该公司在Hugging Face上拥有超过350个代码库,比任何其他组织都多。英伟达计划在未来五年投资260亿美元开发开源AI模型。
Q3:开源AI模型的发展趋势如何?
A:开源模型正在快速普及,开发者希望更好地控制成本、部署和定制。中国公司如百度、字节跳动和腾讯大幅增加了模型发布量,阿里巴巴的Qwen模型已经超越Meta的Llama成为部署最广泛的自托管大语言模型。
上一篇:AI编程的底牌,原来这么不值钱