投資家網獲悉,1月12日,千尋智能自研的具身智能模型Spirit v1.5在RoboChallenge評測中取得綜合排名第一,在任務得分與成功率兩個維度均超越Pi0.5。
為驗證榜單成績來源于自研模型且真實有效,千尋智能同步開源了Spirit v1.5的基模權重、推理代碼以及使用樣例,接受公眾與研究社區的獨立檢驗。通過這一方式,研究者不僅可以復現榜單評測結果,也可以將Spirit v1.5作為具身智能基礎模型,在此基礎上開展進一步研究與創新。
RoboChallenge是2025年新成立的標準化評測體系,由Dexmal、Hugging Face等機構聯合發起,聚焦具身智能模型的跨平臺能力驗證。作為當前具身智能領域強調真實機器人執行能力的重要benchmark,其評測任務覆蓋復雜指令理解、多步驟操作規劃以及跨場景執行穩定性等多個維度。Spirit v1.5在該平臺取得第一名,顯示出其在通用機器人任務與真實執行場景中的綜合能力。
RoboChallenge評測表現概覽
從評測結果來看,Spirit v1.5在多項任務中保持較高成功率,尤其在多任務連續執行、復雜指令拆解以及跨構型遷移等維度中表現穩定。截至最新評測周期,其綜合得分超過Pi 0.5等此前領先模型,位列榜單首位。
RoboChallenge的評分體系不僅關注任務是否完成,還對模型的執行過程進行評估,包括空間定位、遮擋處理、長時序穩定性以及面對新任務時的遷移效率。這種評測方式對模型的泛化性、穩定性與執行準確性提出了更高要求,也更貼近真實機器人應用場景。
技術架構與關鍵方法
在模型架構上,Spirit v1.5采用Vision-Language-Action(VLA)統一建模框架,將視覺感知、語言理解與動作生成整合在同一決策流程中,減少多模塊串聯帶來的信息損耗,并提升長程任務中的整體穩定性。
在訓練方法上,Spirit v1.5的一個核心特點是不依賴高度精選的“干凈”演示數據。千尋智能在技術博客中提出,過度腳本化、受控環境下采集的數據,雖然有利于模型快速收斂,但會限制其在真實世界中的泛化能力。
因此,Spirit v1.5在預訓練階段引入了開放式、多樣化的數據采集范式。數據采集不再嚴格限定任務腳本,而是以“完成有意義目標”為導向,允許操作過程中自然串聯多個子任務與原子技能。這種方式使模型在訓練階段接觸到更接近真實世界的復雜性,包括遮擋、失敗恢復以及任務之間的自然過渡。
相關消融實驗顯示,在相同數據規模下,基于多樣化數據預訓練的模型,在新任務上的遷移效率明顯高于基于傳統演示數據訓練的模型,達到相同性能所需的計算資源顯著減少。這一結果也解釋了Spirit v1.5在RoboChallenge多構型、未見任務評測中的穩定表現。
開源路線與社區意義
在取得評測成績的同時,千尋智能選擇同步開源Spirit v1.5模型權重、訓練代碼以及榜單評測相關實現。通過這一方式,社區不僅可以驗證模型性能,也可以將其作為具身智能研究的基礎模型進行擴展。
在當前具身智能研究仍高度依賴少數技術路線的背景下,Spirit v1.5為學界和產業界提供了一條不同的數據范式與訓練思路,有助于推動更具泛化能力的通用機器人模型探索。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.