如果AI停留在模型層,那它只是一個工具,只有在AI真正落地,在不同場景的行業(yè)生根發(fā)芽,具備特定行業(yè)特定問題的解決方案,且國產(chǎn)自主可控,整個中國的AI行業(yè)才有繼續(xù)向前的動力。
![]()
自年初DeepSeek橫空出世,無論是國外的OpenAI,國內(nèi)的新銳“六小虎”到老牌大廠,都在加速布局推理大模型的研發(fā)與應(yīng)用。
無論是今年“新上牌桌”的DeepSeek,后來居上的字節(jié)豆包,還是國產(chǎn)路線自主可控的科大訊飛,專利數(shù)量一騎絕塵的阿里通義,加上擁有國內(nèi)最大潛在用戶群體,摸著DeepSeek過河的騰訊混元,一個季度過去,各家紛紛迭代了最新的推理大模型。起碼在國產(chǎn)推理大模型領(lǐng)域,已經(jīng)形成了“五軍之戰(zhàn)”的競爭態(tài)勢。
相較傳統(tǒng)的基礎(chǔ)大模型,推理大模型通過海量多模態(tài)數(shù)據(jù)的強化訓(xùn)練,不僅顯著提升了跨領(lǐng)域知識遷移能力,更在復(fù)雜場景下的邏輯推理和問題解決層面取得突破。
其技術(shù)升級方向,已從單純的語言處理轉(zhuǎn)向STEM領(lǐng)域的深度滲透——在科研數(shù)據(jù)處理、工程設(shè)計優(yōu)化、數(shù)學(xué)建模等專業(yè)場景中,推理模型正在不斷替代傳統(tǒng)分析工具,甚至在醫(yī)療診斷、金融風(fēng)控等垂直領(lǐng)域中,不斷展現(xiàn)令人驚艷的潛力。
依托各自的優(yōu)勢領(lǐng)域,各家也正在重構(gòu)屬于自己的AI技術(shù)生態(tài):以DeepSeek為代表的創(chuàng)業(yè)公司聚焦STEM領(lǐng)域的垂直突破,通過打造科研輔助平臺積累技術(shù)勢能;老牌巨頭如阿里云、騰訊云則依托云計算基礎(chǔ)設(shè)施,推動推理模型向產(chǎn)業(yè)端的規(guī)模化落地,科大訊飛則在不斷提升模型性能,比肩國際一線水平的同時,尋求底層算力的國產(chǎn)化替代,以求在不斷激烈的國內(nèi)外競爭中,保持產(chǎn)品和技術(shù)的自主可控。
對各路大模型廠商而言,推理大模型,無疑是一把通往AI時代的鑰匙和機遇。無論是專業(yè)工具型應(yīng)用,還是面向C端消費者的App,科技廠商之間的生態(tài)位爭奪日趨白熱化——他們心中都很明白,誰能跑出AI時代第一個超級應(yīng)用,誰就能成為AI時代的“超級大廠”。
01 國產(chǎn)推理大模型的“涌現(xiàn)時刻”
在DeepSeek橫空出世之前,OpenAI等一眾歐美廠商,試圖用高成本、高算力、高參數(shù)的“三高策略”,成為AI時代的壟斷者,進而收割全世界。大大小小的國產(chǎn)廠商,不管技術(shù)實力高低,背靠資源多少,只要入局AI大模型,無一例外都要走上這條“力大磚飛”的技術(shù)路徑。
春節(jié)前后推出的DeepSeek,則用更低的效能標(biāo)準(zhǔn),比肩頭部的模型性能告訴行業(yè),訓(xùn)練一個推理大模型“并沒有那么貴”。
從整體參數(shù)上看,DeepSeek的參數(shù)規(guī)模,相較主流大模型降低90%,訓(xùn)練成本降低80%,但整體性能,并不比國外一線大模型差;加之開源API免費調(diào)用,為推理大模型的發(fā)展,提供了一條截然不同的新路徑——僅需激活37億參數(shù),即可部署滿血版R1推理模型,推理效率較傳統(tǒng)架構(gòu)提升3倍以上。
有驗證過的技術(shù)路徑在前,國內(nèi)一線大模型廠商隨之迎頭追趕,大有后來居上的趨勢:
阿里旗下的Qwen團隊,于3月推出了開源大語言模型(LLM)QwQ-32B,對標(biāo)OpenAI的o1-preview。QwQ-32B采用了多階段強化學(xué)習(xí)訓(xùn)練方法,在數(shù)學(xué)問題、編碼能力和通用問題解決能力上得到增強。
相比DeepSeek-R1,QwQ-32B的顯存需求更小——通常在GPU上需要24GB vRAM,滿血版DeepSeek-R1則需要超過1500GB vRAM。
騰訊押注推理大模型的時間相對較晚,但自混元接入DeepSeek之后,追趕速度相較以往快了不少——35天“更新”30次后,混元大模型團隊于3月21日推出了自研深度思考模型混元T1正式版。它摒棄了以往的純Transformer架構(gòu),轉(zhuǎn)而將混合Mamba架構(gòu)應(yīng)用于推理大模型。
相對于DeepSeek,T1正式版的吐字速度達到了60~80token/s,實際生成速度快于DeepSeek-R1。在體現(xiàn)推理模型基礎(chǔ)能力的常見基準(zhǔn)測試上,如大語言模型評估增強數(shù)據(jù)集MMLU-PRO中,混元T1取得87.2分,超越了DeepSeek-R1,落后于o1。
字節(jié)方面,于4月發(fā)布的最新推理模型Seed-Thinking-v1.5,同樣采用DeepSeek-R1的MoE架構(gòu),但參數(shù)量降低至200B總參數(shù)和20B激活參數(shù)。相比前者671B總參數(shù)和37B激活參數(shù),輕量化的趨勢更為明顯。
在多項性能自動評估中,Seed-Thinking-v1.5在AIME 2024基準(zhǔn)測試中取得86.7,與OpenAI的o3-mini-high模型的性能相當(dāng)。執(zhí)行GPQA任務(wù)時,Seed-Thinking-v1.5達到77.3%的準(zhǔn)確率,接近o3-mini-high的性能。在Codeforces等代碼生成場景中,Seed-Thinking-v1.5的性能與Gemini 2.5 Pro 的性能相當(dāng),但仍落后于o3-mini-high。
科大訊飛方面,則是在4月21日官宣了旗下深度推理大模型——星火X1的升級。相較其他國內(nèi)廠商,升級版星火X1首創(chuàng)了“直覺快思考”與“深度慢思考”雙模式融合架構(gòu)。
具體而言,快思考模式支持實時翻譯、百科問答等低延遲任務(wù);慢思考模式則通過多步驟邏輯鏈拆解復(fù)雜問題(如數(shù)學(xué)證明、法律條文解析),模擬人類專家的推理過程。
針對更復(fù)雜場景的數(shù)據(jù)稀缺問題,升級版X1則提出了基于問題難度的分階段訓(xùn)練框架。通過動態(tài)調(diào)整強化學(xué)習(xí)更新速度,顯著提升長思維鏈(如50步推理)的穩(wěn)定性和準(zhǔn)確性,在數(shù)學(xué)競賽題(如AIME、MATH 500)上的準(zhǔn)確率較前代提升12%。
從參數(shù)規(guī)模而言,星火X1的模型參數(shù)規(guī)模較業(yè)界同類模型有所縮減,但在整體性能上,已經(jīng)能夠與OpenAI的o1模型及DeepSeek的R1模型相抗衡。
02 全國產(chǎn)算力,為什么是趨勢
整體來看,DeepSeek的輕量化技術(shù)路徑,很大程度上改寫了推理大模型的進化規(guī)則。各家廠商技術(shù)路徑雖有些許差異,參數(shù)規(guī)模的“輕量化”和企業(yè)級應(yīng)用的提速確是實實在在。
但對各家廠商而言,推理大模型的推出只是產(chǎn)業(yè)端應(yīng)用的第一步。隨著推理大模型領(lǐng)域愈發(fā)激烈的全球化競爭,各家廠商勢必要依據(jù)自身的行業(yè)生態(tài),進行相關(guān)的產(chǎn)業(yè)化布局。
譬如,騰訊依托自身的C端用戶優(yōu)勢,率先在C端發(fā)力。AppGrowing數(shù)據(jù)顯示,截至2月27日,騰訊元寶在27天里投放共花了2.81億元。對應(yīng)的C端用戶數(shù)量則不斷上升——到3月3日為止,元寶在蘋果應(yīng)用商店的下載量甚至超過DeepSeek,到達榜首。
在“見真章”的B端,騰訊經(jīng)過C端用戶的迭代反饋,推出了混合專家模型MoE架構(gòu),并通過騰訊混元+開源模型的多模型解決方案,開始在政務(wù)、零售、金融、工業(yè)等30多個行業(yè)落地。這對于底層架構(gòu)和算力支持,無疑提出了更高的要求。
更兼愈發(fā)激烈的中美科技博弈,使得基于先進算力的推理大模型,面臨迫在眉睫的制裁風(fēng)險。4月16日,美國政府突然宣布,對英偉達H20芯片實施“無限期出口許可限制”。
這意味著,從算力層面開始的國產(chǎn)替代,將不再是一種戰(zhàn)略選擇,而成為一種生存剛需。
在此背景下,科大訊飛的模型訓(xùn)練和模型推理,選擇使用全國產(chǎn)算力平臺,無疑具有行業(yè)示范效應(yīng)。
早在兩年前,科大訊飛即與華為合作,建設(shè)了首個萬卡國產(chǎn)算力平臺“飛星一號”,最高能支持萬億參數(shù)大模型訓(xùn)練。科大訊飛董事長劉慶峰在今年年初透露,“飛星二號”將在2025年交付使用首批算力。
![]()
今年3月,訊飛與華為昇騰團隊,實現(xiàn)在國產(chǎn)算力集群上,MoE模型的大規(guī)模跨節(jié)點專家并行集群推理,這也是業(yè)界首個基于國產(chǎn)算力的全新解決方案。一個月后,MoE模型的集群推理性能實現(xiàn)翻番。同時,華為昇騰910B的推理效率,相對A100,也從原先的從55%提升到85%。
就產(chǎn)品意義而言,基于全國產(chǎn)算力升級后的星火X1,在知識問答、數(shù)學(xué)能力等通用任務(wù)上效果顯著提升,不僅是70B參數(shù)大模型中最好的深度推理模型,而且在參數(shù)量小于業(yè)界同類模型的情況下,獲得了比肩國際頂尖模型水平的效果。
![]()
全國產(chǎn)的行業(yè)意義遠(yuǎn)不止于此。訊飛星火X1根植于完全自主可控的大模型底座,在模型迭代時,可以實現(xiàn)更加靈活的參數(shù)規(guī)模調(diào)整,和更深的訓(xùn)練優(yōu)化。行業(yè)大模型的效果相比通用款,提升約在10%左右;疊加具體場景調(diào)優(yōu),效果可進一步提升10%到20%。
成本方面,星火X1通過“快思考、慢思考統(tǒng)一模型”,也顯著降低了硬件資源需求。以國產(chǎn)昇騰910B為參考系,星火X1做行業(yè)落地定制(SFT和強化學(xué)習(xí))需要16張卡,滿血版 DeepSeek需要256張卡,硬件投入約為后者的 1/16。
推理方面,星火X1模型僅需4張華為910B算力卡即可完成私有化部署,對比DeepSeek滿血版R1模型,在性能類似的情況下硬件投入只需要 1/8。
更少的算力需求,不輸友商的模型效果,這無疑從戰(zhàn)略層面,論證了基于國產(chǎn)算力訓(xùn)練的全棧自主可控的大模型,具備登頂業(yè)界最高水平的可行性和創(chuàng)新的可持續(xù)性。
03 走入中國AI的下一個十年
一如科大訊飛董事長劉慶峰所言,“今天是一個通用模型和專用模型相結(jié)合——‘通專結(jié)合’,端測模型和云端模型相結(jié)合,軟件和硬件相結(jié)合的、全新的大模型落地時代。”
如果AI停留在模型層,那它只是一個工具,只有在AI真正落地,在不同場景的行業(yè)生根發(fā)芽,具備特定行業(yè)特定問題的解決方案,且國產(chǎn)自主可控,整個中國的AI行業(yè)才有繼續(xù)向前的動力。
若將視角投向產(chǎn)業(yè)應(yīng)用端,我們大可發(fā)現(xiàn),推理大模型的國內(nèi)外競爭,本質(zhì)上仍然是中國AI產(chǎn)業(yè)從技術(shù)跟跑到生態(tài)領(lǐng)跑的戰(zhàn)略轉(zhuǎn)型。
站在2025年回望,這場始于模型性能追逐的“五軍之戰(zhàn)”,到產(chǎn)業(yè)端落地的不斷深入,終將成為產(chǎn)業(yè)生態(tài)的全面融合。誰先將推理能力轉(zhuǎn)化為行業(yè)生產(chǎn)力,誰就能在AI產(chǎn)業(yè)競賽中穿越周期,引領(lǐng)變革。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.