![]()
機器之心發布
具身智能,正在進入一個新的敘事階段。
一個越來越清晰的現實正在浮現:只靠真機遙操作數據,未必能把機器人真正送進大規模場景。
原因不難理解。數據貴,采得慢,節拍還往往不夠真實。實驗室里能跑通的 demo,到了工廠、倉儲和零售現場,常常會被速度、成本和穩定性重新審視。真正決定下一階段競爭的,已經不只是 “誰能做出一個演示”,而是誰能先把真實世界里的人類操作經驗,規模化地轉成機器人可學習、可迭代、可部署的能力。
4 月 10 日晚,靈初智能發布了大模型、數據集與合作計劃:包括策略模型 Psi-R2世界模型 Psi-W0,以及總規模近 10 萬小時的人類操作數據。它想回答的問題也很直接 —— 當真機數據不再是唯一解,機器人還能靠什么繼續 scaling?
表面看,這是一場新品發布;但更深一層看,它更像一次方法論發布:當具身智能沒有互聯網式的數據紅利時,下一步到底該靠什么繼續往前走。
![]()
當真機數據不再夠用
具身智能為什么轉向 “人類數據”
先看這次到底發布了什么。
- 技術博客鏈接:https://www.psibot.ai/from-human-skill-to-robotic-mastery/
模型側,是Psi-R2Psi-W0。數據側,是總規模近 10 萬小時的人類操作數據,以及首批開源的 1000 小時數據。這 1000 小時數據,被作為當前行業最大開源的人類手部操作全模態數據集之一來推出。
更具體地看,這套體系中包含5417 小時真機數據,來自靈初自研的 MobiDex 數采平臺;人類數據則達到95472 小時,覆蓋多場景、多任務、多物體。這也是少數明確把近 10 萬小時量級人類數據系統性用于機器人預訓練的模型方案。
為什么是 “人類數據”?
因為具身智能和大語言模型、自動駕駛不一樣。它沒有互聯網式的海量現成數據,也很難在商業運行中自然沉淀出足夠規模的高質量訓練樣本。數據從哪里來,已經成了這個行業最核心的問題之一。
而人類每天都在真實環境里,用雙手完成高頻、連續、精細的操作。這些數據天然貼近機器人未來要面對的工作世界。它們發生在真實任務中,帶著真實節拍,也帶著真實的操作細節。從落地角度看,這類數據的價值遠不只是 “多了一種數據源” 那么簡單。
但 Human Data 并不是采得多就夠了。
它最大的難點,首先是embodiment gap,也就是人手和機械手在運動學、動力學上的天然差異。其次是精度問題。很多人類操作數據來自第一視角視頻,軌跡恢復往往只有厘米級精度;一旦進入手機裝配這類亞毫米級任務,這種誤差就會被迅速放大。
為了解決這個問題,靈初自研了外骨骼觸覺手套和高精度感知硬件,把人手 3D 軌跡采集推到更高精度。另一部分裸手數據,精度沒那么高,但規模更大,主要負責提供泛化能力。
換句話說,靈初并不是簡單把 “人類數據” 當作替代真機數據的便宜選項,而是在試圖建立一套分層的數據結構:高精度數據負責上限,大規模數據負責泛化,兩者一起為機器人訓練提供新的底座。
一套系統
比單個模型更關鍵
更有意思的是,靈初最后并沒有走一條特別 “花哨” 的對齊路線。
他們嘗試過圖像修補、關鍵點輔助 loss、特征空間對齊等做法,想把人類數據盡可能修成更像機器人數據的樣子。但最后發現,數據量小的時候這些方法有幫助;數據量一旦上來,它們反而會變成瓶頸。
原因并不復雜。那些方法本質上都在努力模糊人和機器人的差異,但在長程、精細、接觸密集的任務里,這種差異恰恰不能被輕易抹平。越是復雜和精細的任務,越需要承認兩種 embodiment 的真實不同。強行 “抹平” 之后,模型反而更容易在關鍵動作上犯錯。
所以,靈初最后選了一條更樸素的路:只做必要的輸入輸出維度對齊,把人類關節通過運動學映射到機器人關節,圖像盡量不做處理,直接把原始數據喂給模型。它給這條路線的總結也很直白:raw data in, raw data out
在這套方法里,Psi-R2負責 “先學會怎么做”。
它的輸入是圖像和語言,輸出同時包括未來視頻和機器人動作。也就是說,它不是只學下一步動作,而是在同時學習 “接下來世界會怎樣變化”。這套設計建立在預訓練視頻生成模型之上,目標是把大規模人類數據里的任務知識,盡可能裝進策略模型。
在大規模預訓練之后,Psi-R2 僅需少于 100 條真機軌跡微調,就能完成手機裝配、工業包裝、疊紙盒等長程、精細任務。
![]()
但只學成功動作,還不夠。
因為成功示范只能告訴模型 “應該怎么做”,卻不能告訴它 “換一種做法,會在哪一步失敗”。而這恰恰是強化學習最需要的信息。
這也是Psi-W0的位置。
它接收圖像、語言和機器人動作軌跡,去預測未來視頻。相比 Psi-R2,Psi-W0 多了一項關鍵職責:建模失敗、建模反事實、建模試錯空間。為此,Psi-W0 的訓練中額外加入了約 30% 的失敗數據。
換句話說,Psi-W0 不只是一個 “會預測” 的模型,它更像一個可以用來評估和打磨策略的訓練場。Psi-R2 先從人類數據里學到任務知識,再把軌跡送進 Psi-W0 做 rollout;隨后在機器人動力學約束下,通過強化學習做小步修正,把 “人類會做” 的軌跡改造成 “機器人也能做” 的軌跡。好的軌跡回流訓練集,壞的軌跡幫助世界模型繼續變準,飛輪就這樣轉起來。
這也是這次發布最值得注意的地方:真正起作用的,不是某一個單點模型,而是Psi-R2、Psi-W0 與強化學習的系統協同。
圍繞 Human Data,靈初也給出了一組很值得行業參考的判斷:對數據分布來說,任務多樣性 > 物體多樣性 >> 場景多樣性;對模態價值來說,精準 3D 位姿 > 觸覺 > 2D 圖像特征
翻譯成更直白的話就是:背景是不是足夠復雜,未必最重要;真正決定模型上限的,是它見過多少任務、碰過多少物體,以及它是否真正理解了接觸和操作細節。
也因此,靈初把觸覺看成一種跨具身的 “通用語言”。人手和機械手的結構可以不同,但 “碰到了沒有”“接觸是怎樣發生的” 這類物理信號,本質上是相通的。
![]()
從論文到現場
落地還要跨過部署關
如果說前面解決的是 “技術上行不行”,那商業化真正關心的,始終是 “這條路值不值得走”。
答案很明確:值得,而且必須走。
原因很簡單。實驗室里,動作慢一點、路徑繞一點,很多 demo 依然可以做出來;但到了工廠、倉儲和零售現場,節拍、成本和穩定性會重新定義一切。真實作業里,一個動作多一步、一拍慢一點,最后都會落到良率和成本上。
從這個角度看,最有價值的數據,往往不是實驗室里的遙操作演示,而是一線工人的真實作業數據。
一方面,人類數據采集可以更便宜,其成本被壓到了傳統真機遙操作方案的十分之一以下。另一方面,它的節拍更真實,更貼近業務現場的 SOP 和速度要求。
工程側的進展,則讓這件事離落地又近了一步。
通過 DiT Caching、Torch Compile、量化等優化,單次推理時間已從 2.2 秒壓到 100 毫秒以內。對于連續、靈巧、順滑的操作來說,這已經不是 “優化得不錯”,而是能不能真正進場部署的一道門檻。
外部基準,也給了這套方法一個注腳。
截至發稿,公開榜單頁面顯示,在 MolmoSpaces Combined 榜單、且不使用 MolmoBot Data 的分組中,Psi-R2 以 46.4 的 Oracle Success Rate 排名第一,并覆蓋 4 個任務。
![]()
MolmoSpace 由美國艾倫人工智能研究所(AllenAI)發起,是全球具身智能領域權威基準評測平臺,NVIDIA、PI 等全球頂尖團隊均參與本次評測。靈初 Psi-R2 在評測中超越 PI、DreamZero 等國際知名模型,表現顯著優于其他基線模型,成功率大幅領先同類 VLA 產品,充分體現出企業自主研發路線的先進性與競爭力
這個細節的價值,不只是 “上榜”。更重要的是,它說明這套方法,正在進入一個公開、可比較的評價環境里接受檢驗。
把這些信息放在一起看,這次發布的重點并不只是 “又發了一個模型”,也不只是 “又開源了一批數據”。
它更像是在對外釋放一個判斷:
第一,具身智能的瓶頸是數據,而人類數據不是旁路,而是主線。
第二,真正能把人類經驗轉成機器人能力的,不是單個模型,而是Psi-R2、Psi-W0 和強化學習共同構成的系統
第三,所有技術問題的終點都不是論文,而是落地:節拍、成本、推理速度、數據飛輪能不能真正轉起來,才是最后的檢驗標準。
如果這套路線最終走通,這次開源的意義,就不只是 “放出一個模型,開放一批數據”。
![]()
它更像是在告訴行業:具身智能真正的分水嶺,也許已經不再是誰先做出更驚艷的 demo,而是誰能先把Human Data、世界模型和強化學習連成一條持續運轉的增長曲線。
從這個意義上說,這次想發布的,也許不只是一個新產品。
而是一個新階段。
文中視頻鏈接:https://mp.weixin.qq.com/s/8qnnf6J9sgh9thTbfg1ndg
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.