![]()
最近,Interconnects.ai 的一份報告,像在科技圈丟下一枚炸彈:截至 2025 年 8 月,中國開源大模型在 HuggingFace 上的下載量正快速趕上美國,幾乎已經超越了。
![]()
美國這2年在開源模型上的領先地位,似乎正在被反超。在鯨哥看來,這不只是一個數據酷炫,下載量說明大家真的在用,證明我們在模型質量、生態建設等方面都實現了反超。
很多人不理解意義,簡答說在移動互聯網時代,很多人都用的是安卓手機,開源的安卓統治了移動操作系統的過半壁江山。AGI時代,Meta也高舉開源大模型的大旗,很多國外企業采用Llama作為AI 引擎,輸出AI的消費級服務。
Llama差點成為新時代的安卓,現在 DeepSeek、Qwen等模型,改變了這一現狀。
國產大模型的高光時刻
具體說,是Interconnects.ai 在《ATOM Project》這份報告里,統計了 Meta、Google、Mistral AI、Microsoft、Alibaba Qwen 和 DeepSeek 等幾家主要大模型開放者,從它們在 HuggingFace 上的下載量和派生(fine?tune/派生模型)的情況做了歸類。報告里幾個關鍵點:
到 2025 年 8 月,美國領先的開源模型(主要是 Llama / Meta 系列)與中國領先的開源模型下載總量都在約 3 億次(~300M 次下載)左右。兩邊差距已經非常小。
中國模型下載量的增長速度明顯快于美國模型。每個月新下載量/新增派生模型的比例,中國那邊漲得更陡。
在派生/fine?tune 模型數量上,美國的留存領頭優勢在減弱。以前美國模型(主要是 Llama 系列)派生模型占比非常高,但到現在,中國模型(比如 Qwen 系列)一個月的新派生模型中可能占到40% 以上。美國 Llama 系列的派生比例從巔峰時的近 50% 下滑到大約 15%。
再看國產模型的一些動靜:
DeepSeek 的 V3 與 R1 模型,自從發布后震動不小。DeepSeek?V3 發布在 2024 年底/2025 年初,其在數學、編碼任務上的表現被業界認為“性價比高 + 推理 +成本比驚人”。
緊接著,阿里在 2025 年春節發布了Qwen 2.5?Max。幾個月后,阿里又發布了 Qwen 3 系列,帶 hybrid reasoning(混合推理)能力。
Qwen3包含235B和30B兩種MoE架構及6個Dense模型,覆蓋6B-232B的多種尺寸的8款系列模型。阿里的Qwen系列更新速度和更新范圍在全球都無出其右。
不只是DeepSeek和Qwen在充當主力軍,混元開放從 0.5B 到7B 的小尺寸模型,支持終端與低功耗場景落地。
Kimi K2 是一個 1T 參數總量、32B 激活參數的 MoE 模型,對 Agent 與 coding 任務友好,支持 128K 上下文,開源且免費商用。
GLM-4.5 融合了推理、代碼與智能體能力,是國產開源模型中的新標桿,在多個 benchmark 上為開源模型中表現最優,參數效率與成本效益顯著提升。
所以「下載量幾乎趕上 + 新模型速度 +派生/fine?tune 模型數目增多」這些都指向了一個拐點:中國開源大模型生態不再是追隨者,而是正式進入高速對抗+超越可能的階段。
國外開源為何落后?
美國這邊落后的原因,不是因為人物不努力,而是結構 +生態 +方向 +部署門檻幾個地方被拉開了差距。Llama 4 是一個重要節點,可以重點說下。
Meta 在 2025 年發布了 Llama 4 家族(包括 Maverick、Scout 等版本),這個趕工版本出現了很多問題:
1.過載現象嚴重,應試的產物
有傳言Llama 4 在后訓練階段中,將多個benchmark測試集混入訓練數據。這讓模型的測試成績出眾,但在泛化任務中表現差強人意。實測很多任務的表現還不如GPT-4o。
2.派生 /開源自由度下降
雖然 Llama4 是開源權重模型(open?weight 模型家族),但在派生(fine?tune/第三方修改)社區里的活力相比之前有所下降。Interconnects 報告里提到,美國模型(Llama 系列)派生模型的比例從 2024 年底約 50% 高峰降到現在約 15%。意味著很多用戶/開發者在下載之后,不是“繼續改造/訓練/fine?tune”的機會變少了。
3.成本與部署門檻太高
DeepSeek 和 Qwen 在“低成本推理”“輕量版本 /蒸餾版/distill/量化支持”上動作快,用 GPU/硬件要求稍低的版本可用性更高。Llama4 在最強的版本可能需要更高算力/內存/成本,這在很多中小企業/開發者里是門檻。
而GPT和Grok開源速度又很慢,難以扛起國外的開源大旗。
OpenAI 在 2025 年 8 月 6 日推出自 GPT-2 以來的首批開源權重語言模型 gpt-oss-120b 與 gpt-oss-20b,性能堪比 o4-mini 和 o3-mini,可在高端筆記本和手機上運行。
不過,OpenAI 的主流模型如 GPT-4o、GPT-5 等仍然是閉源的。
8 月 24 日,xAI 開源了 Grok-2。Grok-2 在編碼、復雜問題和數學方面表現出色,還能生圖識圖,性能比肩當時的 GPT-4o。不過,Grok-2 的開源協議較為嚴苛,xAI 允許非商業與合規商業使用,但禁止用其訓練其他基礎模型,僅當關聯公司年收入低于一百萬美元時,才可用于商業用途,超過此門檻的商業用途需獲得 xAI 的單獨許可。
xAI 表示 Grok-3 將在 Grok-2 開源大概 6 個月內開源。
現在美國開源的大旗,已經看不到一個實力選手了。
開源未來之路探索
最核心的原因,是Meta的Llama4 發布的口碑,確實影響了其行業認可度。
尤其Llama4 雖然支持多模態,但在OCR/圖像 + 文本混合應用等細節優化,以及成本/延遲/部署資源要求上,用戶反饋并不是每個場景都能“拿來就用”。
最新消息傳言,新版本的Llama4X可能轉向閉源。
中國的 DeepSeek + Qwen 則多頻次推出新版本/升級,以及強勁的中國本土需求 +語言 +多模態場景,讓中國模型在下載量+派生+部署效率上增長非常快。
國產開源大模型每隔一段時間就有新版本/新變體/容量/多模態/OCR/混合模態之類的更新。這些頻率+迭代讓用戶/社區“跟得上看到實際進步”的那種信心很強。
比如,最新的 Qwen?3 系列/Qwen?Next(有的媒體稱之為 下一代 Qwen,或者 Qwen3)被報道擁有混合推理能力(hybrid reasoning),更強的推理 + 對多模態 /實際應用場景的支持。
總結:這不是某一個模型的“反超”,而是生態拐點。
甚至a16z的合伙人Martin Casado說,預計80%的灣區初創公司,都在基于中國開源模型進行開發。
未來幾個月/一年里,我們可以重點看三件事:
Qwen?Next / Qwen3 等下一代模型的正式 benchmark +開源程度如何;
DeepSeek 后續版本將帶來多大程度的升級,R2或者V4帶來驚喜可期;
HugginFace/ModelScope 等開源模型托管/派生生態是不是繼續給中國模型更大的空間增長。
總結來說,中國開源模型的優勢不僅是“便宜”或“中文好”,而是“速度 +迭代 +社區生態 +部署門檻低”,這些組合在一起,構成了現在這個拐點。
參考資料:
https://www.interconnects.ai/p/on-chinas-open-source-ai-trajectory
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.