![]()
文:王智遠(yuǎn) | ID:Z201440
聽到 DeepMind CEO 聊中國 AI,有一句話特別刺耳:中國 AI 毫無創(chuàng)新,只不過是跟進速度可怕。
這話,聽著是不是很熟悉?
前兩年敘事里,這幾乎成了西方對我們的思維定勢,他們負(fù)責(zé)「從 0 到 1」的發(fā)明,我們負(fù)責(zé)「從 1 到 100」的內(nèi)卷。
哪怕我們跑得再快,在他們眼里,充其量也就是個「勤奮的跟隨者」。
說實話,這種論調(diào)過去我們很難反駁。因為你打開任何一個國際主流榜單,放眼望去,清一色的美國產(chǎn)品;比如:OpenAI、Google、Anthropic。但偏見這東西,最怕硬數(shù)據(jù)。
01
今天(12月23日),全球公認(rèn)最難刷榜、最講究「盲測體驗」的大模型競技場 LMArena ,更新了排名;在眾多美國模型的重重包圍里,百度文心 ERNIE-5.0-Preview-1203 殺了出來,以 1451 分拿下了國內(nèi)第一。
這個分?jǐn)?shù)意味著什么?
國際舞臺上,文心已成為國產(chǎn) AI 的優(yōu)秀代表,在 LMArena 排名前 10,超過了 Claude Sonnet4.5、GPT-5.2 等前沿模型,是前 20 里唯一的非美國模型,打破了美國壟斷。
當(dāng)唯一的中國名字出現(xiàn)在榜單前列,當(dāng)我們的 AI 已經(jīng)不再滿足于「跟跑」時,中美 AI 的這盤棋,邏輯是不是已經(jīng)變了?
智遠(yuǎn)分析認(rèn)為,跑贏這事兒,不能光靠運氣,也不能全靠「堆顯卡」,我特意翻了一下文心 5.0 Preview 背后的技術(shù)文檔,發(fā)現(xiàn)百度在練幾門很刁鉆的「內(nèi)功」,這也是它能突圍的核心原因。
第一,最核心底座是一個「原生」的生命體。
注意這個詞:原生全模態(tài)(Native Omni-modal);以前很多所謂「多模態(tài)」模型是「拼湊」出來的,給大模型外掛一個看圖的眼睛、外掛一個聽聲音的耳朵。
這種后期融合雖然能用,但各感官之間是割裂的;文心 5.0 不一樣。它采用了「原生全模態(tài)統(tǒng)一建模」技術(shù)。
打個比方:
它像一個天生具備視、聽、說能力的生命體;從訓(xùn)練的第一天起,文本、圖像、音頻、視頻就是融合在一起學(xué)習(xí)的。
所以,它能直接理解視頻里的情緒,直接看懂圖片里的邏輯,這種“出廠設(shè)置”級別的差異,讓它的理解和生成能力,直接上了一個臺階。
![]()
圖釋:LMArena 最新榜單,文心 5.0 Preview 以 1451 分殺入全球前十,超越 GPT-5.2,成為前 20 名中唯一的非美國模型。
第二招,是「大塊頭」也有「大智慧」。
文心 5.0 參數(shù)量達(dá)到了驚人的 2.4 萬億。這是目前業(yè)界已公開參數(shù)模型里的「巨無霸」。
通常我們認(rèn)為,模型越大越笨重、越燒錢;百度用了一種「超大規(guī)模混合專家模型(MoE)架構(gòu)」,解決了個悖論。
簡單說,這 2.4 萬億參數(shù)像一個龐大的專家?guī)欤谔幚砭唧w問題時,只激活其中不到 3% 的相關(guān)專家來干活;在 LMArena 這種拼反應(yīng)、拼邏輯的盲測里,這種架構(gòu)優(yōu)勢非常明顯。
第三招,是「思考」與「行動」的合體。
文心4.5開始就致力于「知行合一」,突破了僅基于思維鏈優(yōu)化的范式,在思考路徑中結(jié)合工具調(diào)用,構(gòu)建了融合思考和行動的復(fù)合思維鏈,模型解決問題能力得到顯著提升。
同時,結(jié)合多元統(tǒng)一的獎勵機制,實現(xiàn)了長距離思維和行動鏈的端到端優(yōu)化,顯著提升了跨領(lǐng)域問題解決能力。
所以,不能把它簡單歸納為彎道超車。
從「拼接」走向「原生」,從「堆參數(shù)」走向「MoE」,從「單點問答」走向「智能體思考」,這 1451 分的背后,是技術(shù)路線的質(zhì)變。
當(dāng)不再盲目堆算力,開始在架構(gòu)、思考能力上找突破口時,打贏 GPT-5.2,也就不是什么不可思議的事了。
不可思議,不是我隨意能說了算。畢竟,刷榜這事兒,中國不愛干,干了也沒用,能把技術(shù)用到應(yīng)用中,才是真本事。
DeepMind 覺得中國 AI 缺乏創(chuàng)新,理由是我們太熱衷于「應(yīng)用」,但智遠(yuǎn)看來,這恰恰是中西方視角的錯位。
硅谷創(chuàng)新往往在實驗室的白板上,追求算法“從 0 到 1”;而中國創(chuàng)新,長在泥土里,長在車間里,長在代碼行里,追求產(chǎn)業(yè)的“從 1 到 100”。
我認(rèn)為,反駁「無創(chuàng)新論」最有力的武器,是看能不能解決美國 AI 根本沒碰到過、甚至想象不到的復(fù)雜難題。比如說:在大國重器里,解決「物理世界」的硬傷。
02
來看看文心大模型在各行各業(yè)的應(yīng)用:
中車集團聽說過嗎?造高鐵的那個。以前做高鐵的氣動外形設(shè)計,那是純物理活兒,更是個「苦力活」。
因為空氣看不見摸不著的,設(shè)計師設(shè)計一個車頭,好不好用,必須得扔進風(fēng)洞實驗室里吹。
跑一次數(shù)據(jù),涉及海量的流體力學(xué)計算,可能要耗時好幾個月,而且風(fēng)洞實驗的成本極高,可以說是“燒錢又燒時間”。
現(xiàn)在呢?一切變了。
他們把文心大模型用在了空氣動力學(xué)仿真上。基于百度飛槳的科學(xué)計算能力,大模型學(xué)習(xí)了海量的歷史實驗數(shù)據(jù),它已經(jīng)「懂」了風(fēng)的規(guī)律。
有了這個「外掛」,過去幾個月的實驗周期,現(xiàn)在最快幾分鐘就能算出結(jié)果。設(shè)計師有一個新想法,立刻就能跑出數(shù)據(jù)驗證,創(chuàng)新的迭代速度快了成百上千倍。
更科幻的是,他們還搞了個「虛擬傳感器」。
這又是什么黑科技呢?這么說吧,高鐵上有很多精密部件沒法安裝實體傳感器的(比如空間太小,或者環(huán)境太惡劣)。
以前這些地方出了問題,只能靠猜或者靠檢修。但現(xiàn)在,利用大模型強大的推演能力,能憑現(xiàn)有的電流、電壓等外圍數(shù)據(jù),AI 就能在虛擬世界里“推算”出核心部件的實時狀態(tài)。
這好比給列車裝了一雙透視的“天眼”,把故障檢測的準(zhǔn)確率硬生生在現(xiàn)有傳感器檢測的基礎(chǔ)上再提升了 10%;這 10%,關(guān)乎中國高鐵的安全,關(guān)乎的是億萬乘客的生命。
再比如:國家電網(wǎng)。以前巡檢電塔,那是工人拿命去爬,風(fēng)吹日曬。現(xiàn)在靠無人機 + 大模型,一年巡檢 500 萬基桿塔,人工登塔次數(shù)直接減少了 40% 。
這種把 AI 塞進高鐵和電網(wǎng)里,解決物理世界硬傷的能力,DeepMind 見過嗎?
如果說工業(yè)是「硬度」,那代碼就是「速度」;我們都知道 AI 能寫代碼,但能不能進核心業(yè)務(wù)流?順豐科技給了一個很嚇人的答案 。
大家可能不知道順豐的業(yè)務(wù)系統(tǒng)有多復(fù)雜。它不僅有物流地圖,還有運單流轉(zhuǎn)、倉儲管理......
這些系統(tǒng)里,沉淀海量的、只有順豐人懂的「私有知識」。普通通用大模型,你問它“如何優(yōu)化運單路由”,它只能給你講一堆正確的廢話。
但順豐用的文心快碼(Baidu Comate),走了一條不同的路。
它通過 RAG(檢索增強生成) 技術(shù),像外掛硬盤一樣,無縫接入了順豐內(nèi)部龐大的私域代碼庫和文檔庫;當(dāng)程序員敲下一行代碼時,AI不用瞎猜了。
直接在順豐沉淀了十幾年的技術(shù)資產(chǎn)里瞬間檢索,找到最匹配的邏輯,生成代碼。效果怎么樣呢?現(xiàn)在順豐全公司,日均 20% 的代碼是由 AI 生成的 。
相當(dāng)于每五個字代碼里,就有一個是 AI 寫的。解放了順豐 1000 多名開發(fā)者的生產(chǎn)力,讓他們從枯燥的「搬磚」中解脫出來,去思考更復(fù)雜的物流算法 ;這是實打?qū)嵉男沦|(zhì)生產(chǎn)力。不炫技,在給企業(yè)省錢、增效。
03
智遠(yuǎn)再說一個應(yīng)用場景最稀缺的例子:社會治理。
在美國,AI 處理標(biāo)準(zhǔn)英語也許很容易。但在中國,處理老百姓夾雜著方言、情緒激動、邏輯混亂的投訴,是對 AI 理解力的極致考驗。
北京市海淀區(qū)的「接訴即辦」系統(tǒng),每月受理量十幾萬,以前靠人工聽錄音、打標(biāo)簽,根本搞不過來。
因為數(shù)據(jù)量太大了,而且是非結(jié)構(gòu)化的。現(xiàn)在接入文心大模型后,它不僅能更懂人性,還能從一堆嘮叨里精準(zhǔn)提取訴求,自動分類填單 。
數(shù)據(jù)反差極其強烈:
以前做簡單指標(biāo)統(tǒng)計要 3 天,現(xiàn)在只要 1 分鐘;畫個圖表以前要 5 天,現(xiàn)在 30 分鐘搞定;這是給龐大的城市治理裝上了一個實時思考的“大腦”,讓管理者能聽懂每一句人間煙火。
最后,如果非要說我們不懂基礎(chǔ)科學(xué),那就去上海交大看看。
傳統(tǒng)科學(xué)實驗,其實很笨。就像愛迪生試燈絲一樣,要在實驗室里進行成千上萬次的重復(fù)試錯,耗時耗力 。
上海交大基于文心大模型搞了個 AI for Science 平臺 。現(xiàn)在,只要輸入分子 SMILES 序列,5 秒鐘之內(nèi)就能檢索出反應(yīng)過程、反應(yīng)條件和相關(guān)文獻 。
這個成果,直接登上了 Nature Computational Science 的封面 。
Nature Computational Science是什么?不懂行的認(rèn)為這只是一篇論文,但在學(xué)術(shù)圈,這本《自然》旗下的頂級子刊,代表著「計算+科學(xué)」交叉領(lǐng)域的最高門檻。
能上封面,意味著中國 AI除了做應(yīng)用,還能定義基礎(chǔ)科學(xué)的未來范式。
所以,當(dāng)看到 AI 開始指導(dǎo)化學(xué)反應(yīng),開始設(shè)計高鐵外形,開始聽懂老百姓方言,開始替程序員寫兩成的代碼時,還會覺得中國是跟隨者嗎?
04
最后,智遠(yuǎn)想說一個細(xì)思極恐的細(xì)節(jié)。關(guān)注 LMArena 的朋友會知道,哪怕你看到了它排在國內(nèi)第一、全球前十,別忘了,它的名字后綴里還掛著一個詞:Preview(預(yù)覽版)。
什么意思?
也就說,打敗GPT-5.2、把不少美國模型甩在身后的「文心 5.0」,還是一個「未完全體」;這就像武林高手過招,對方還沒拔劍,只是試探性地出了一掌。
智遠(yuǎn)看到榜單后,問了下熟悉的人,他們說:文心大模型 5.0 正式版,大概率會在 1 月份正式上線。
試想一下,一個 Preview 版本已經(jīng)能在競技場里撕開鐵幕,那經(jīng)過一個月打磨后的正式版,又會拿出什么樣的性能呢?
如果只盯著分?jǐn)?shù),可能又看走眼了,因為現(xiàn)在大模型上榜大家關(guān)注少了,智遠(yuǎn)覺得,這事兒還有更深的一層意味。我們不僅要問文心 5.0 還能得多少分,更要問一個終極問題:
當(dāng)技術(shù)代差被抹平之后,中美 AI 的終局競爭到底拼什么?拼誰的模型多 10 分?還是拼誰的參數(shù)大一倍?都不是。
拼誰能把技術(shù)變成像水和電一樣,流進每一個普通人的生活里。
這也是智遠(yuǎn)認(rèn)為,百度在模型上下功夫的地方;它不僅自己在進化,它還帶著整個生態(tài)在進化;以后要把它用到AI搜索里、百度文庫網(wǎng)盤里、以及企業(yè)服務(wù)場景里,豈不是成了降本提效的「日用品」?
所以,當(dāng) DeepMind 還在嘲笑我們「應(yīng)用快」的時候,他們可能沒意識到:應(yīng)用,本身就是一種巨大的技術(shù)壁壘。
因為應(yīng)用會產(chǎn)生數(shù)據(jù),數(shù)據(jù)會反哺模型,模型進化了又帶來更好的應(yīng)用;這是一個正向滾動的雪球。 而文心模型,是在雪球的中心。
所以,回到DeepMind 那句傲慢的評判。
當(dāng)中國名字出現(xiàn)在榜單前列,當(dāng)我們的 AI 深入到高鐵與政務(wù)的毛細(xì)血管,當(dāng)“預(yù)覽版”能同臺競技時,不管硅谷還是 DeepMind,或許都該換一副眼鏡看中國 AI 了。
承認(rèn)別人的優(yōu)秀,并不丟人。
在這個時代,創(chuàng)新沒有時間限制,沒有壟斷權(quán);它可以發(fā)生在加州的實驗室里,也可以發(fā)生在中國的高鐵車間里。
中美 AI 的故事,是「雙強并峙,各登山頂」。這,才是 AI 賽場上的真相。我也比較期待啥時候上線正式版。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.