1月11日,千尋智能自研的具身智能模型Spirit v1.5在具身智能模型評測榜單RoboChallenge中擊敗國際標桿Pi0.5,奪得全球總榜第一。
![]()
這不僅是千尋智能的技術突破,更是中國具身智能模型首次在核心性能指標上超越海外頂尖開源模型。
為驗證榜單成績來源于自研模型且真實有效,千尋智能于今日(1月12日)同步開源了基礎模型以及提交RoboChallenge榜單測試所使用的模型權重與核心代碼,接受公眾與研究社區(qū)的獨立檢驗。通過這一方式,研究者不僅可以復現(xiàn)榜單評測結果,也可以將Spirit v1.5作為具身智能基礎模型,在此基礎上開展進一步研究與創(chuàng)新。
RoboChallenge是2025年新成立的標準化評測體系,由Dexmal、Hugging Face等機構聯(lián)合發(fā)起,聚焦具身智能模型的跨平臺能力驗證。作為當前具身智能領域強調真實機器人執(zhí)行能力的重要benchmark,其評測任務覆蓋復雜指令理解、多步驟操作規(guī)劃以及跨場景執(zhí)行穩(wěn)定性等多個維度。Spirit v1.5在該平臺取得第一名,顯示出其在通用機器人任務與真實執(zhí)行場景中的綜合能力。
從評測結果來看,Spirit v1.5在多項任務中保持較高成功率,尤其在多任務連續(xù)執(zhí)行、復雜指令拆解以及跨構型遷移等維度中表現(xiàn)穩(wěn)定。
![]()
在模型架構上,Spirit v1.5采用Vision-Language-Action(VLA)統(tǒng)一建模框架,將視覺感知、語言理解與動作生成整合在同一決策流程中,減少多模塊串聯(lián)帶來的信息損耗,并提升長程任務中的整體穩(wěn)定性。
在訓練方法上,Spirit v1.5的一個核心特點是不依賴高度精選的“干凈”演示數(shù)據(jù)。千尋智能在技術博客中提出,過度腳本化、受控環(huán)境下采集的數(shù)據(jù),雖然有利于模型快速收斂,但會限制其在真實世界中的泛化能力。
因此,Spirit v1.5在預訓練階段引入了開放式、多樣化的數(shù)據(jù)采集范式。數(shù)據(jù)采集不再嚴格限定任務腳本,而是以“完成有意義目標”為導向,允許操作過程中自然串聯(lián)多個子任務與原子技能。這種方式使模型在訓練階段接觸到更接近真實世界的復雜性,包括遮擋、失敗恢復以及任務之間的自然過渡。
![]()
相關消融實驗顯示,在相同數(shù)據(jù)規(guī)模下,基于多樣化數(shù)據(jù)預訓練的模型,在新任務上的遷移效率明顯高于基于傳統(tǒng)演示數(shù)據(jù)訓練的模型,達到相同性能所需的計算資源顯著減少。這一結果也解釋了Spirit v1.5在RoboChallenge多構型、未見任務評測中的穩(wěn)定表現(xiàn)。
在當前具身智能研究仍高度依賴少數(shù)技術路線的背景下,Spirit v1.5為學界和產(chǎn)業(yè)界提供了一條不同的數(shù)據(jù)范式與訓練思路,有助于推動更具泛化能力的通用機器人模型探索。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.