DM-EXton2的力/觸覺反饋功能讓機器人在遙操作過程中也擁有"手感"。該系統(tǒng)可將接觸力、擠壓等信息實時反饋給操作者,使其在進行易碎物夾取、精密插拔、柔性抓取等精細任務(wù)時,更容易把握力度邊界,從而提升操作成功率與高質(zhì)量數(shù)據(jù)采集效率。即便在機器人或遙操員視覺被遮擋、視線受限的情況下,操作者也能借助力反饋對物體的軟硬、接觸狀態(tài)進行判斷,輔助完成更準確、更穩(wěn)定的抓取與放置。這一功能的價值不僅在于提升操作體驗與成功率,更在于它能夠支撐機器人采集到包含細膩力控與觸覺信息的多模態(tài)數(shù)據(jù)。這些數(shù)據(jù)是訓練機器人形成“物理直覺”——即對物體屬性(軟硬、脆韌、滑澀)和交互動力學產(chǎn)生內(nèi)在理解的關(guān)鍵素材。
就像石油是工業(yè)時代的命脈,數(shù)據(jù)正在成為AI時代具身智能爆發(fā)的核心燃料。借鑒自動駕駛從數(shù)據(jù)匱乏到規(guī)模化落地的演進路徑,2026年,隨著算法突破、算力突圍、硬件成熟之后,數(shù)據(jù),這個曾被低估的世界級難題,如今已成為決定機器人企業(yè)競爭力的關(guān)鍵變量。
從2024年P(guān)i0模型的1萬小時真機數(shù)據(jù),到2025年Gen-0模型使用的27萬小時UMI數(shù)據(jù),業(yè)內(nèi)人士普遍預計,2026年的頭部算法公司的訓練數(shù)據(jù)規(guī)模必然會突破百萬小時。隨著需求的快速增長,具身智能數(shù)據(jù)領(lǐng)域的市場需求必然爆發(fā),機器人行業(yè)即將迎來一場圍繞數(shù)據(jù)采集、生成與應(yīng)用的競速。
![]()
▍為什么高質(zhì)量人形數(shù)據(jù)是具身智能的命門?
在ChatGPT掀起的AI浪潮中,大語言模型憑借互聯(lián)網(wǎng)海量文本數(shù)據(jù)實現(xiàn)了能力涌現(xiàn)。但對于要在物理世界中摸爬滾打的具身智能機器人而言,數(shù)據(jù)獲取之路卻異常艱難,因為沒有現(xiàn)成的互聯(lián)網(wǎng)級數(shù)據(jù)池,每一條有效數(shù)據(jù)都需要通過真實交互或仿真模擬量身定制。具身智能持續(xù)進化的四大關(guān)鍵因子——算法、算力、機器人硬件、數(shù)據(jù),其中,數(shù)據(jù)是目前唯一尚未突破的世界級難題,其價值遠超單純的訓練素材。
而在數(shù)據(jù)采集的過程中,由于大多數(shù)據(jù)采集的最終目的,都是讓人形機器人做出更高質(zhì)量的動作,從而落地場景,因此大多具身數(shù)據(jù)采集開始逐漸優(yōu)先選擇人形形態(tài)的數(shù)據(jù)采集系統(tǒng),原因就是其形態(tài)、操作邏輯與人類場景高度適配,能更好解決數(shù)據(jù)真實感、通用性、泛化性三大核心訴求,完美匹配具身智能適應(yīng)人類環(huán)境、完成人類任務(wù)的終極目標。
![]()
此外,當前具身智能行業(yè)已形成明確共識:人形機器人有望成為未來主流落地形態(tài)。基于人形機器人實現(xiàn)的數(shù)據(jù)集,無疑更容易契合行業(yè)標準與發(fā)展趨勢,數(shù)據(jù)價值長期保值。從長期價值來看,基于人形機器人采集的數(shù)據(jù),隨著人形機器人產(chǎn)業(yè)化落地,其采集的數(shù)據(jù)可直接用于量產(chǎn)機型的模型迭代,形成數(shù)據(jù)采集-模型優(yōu)化-產(chǎn)品落地-更多數(shù)據(jù)采集的正向循環(huán)。
▍具身智能數(shù)據(jù)采集企業(yè)有哪些?
(1)星海圖數(shù)據(jù)采集系統(tǒng)
星海圖構(gòu)建了一套從物理硬件到數(shù)據(jù)采集,再到數(shù)據(jù)管理、標注與處理的完整閉環(huán)平臺(EDP)。其核心邏輯是通過標準化的機器人本體在真實世界中執(zhí)行任務(wù),系統(tǒng)性地采集高質(zhì)量、多模態(tài)數(shù)據(jù),并利用完備的工具鏈進行管理、標注,最終用于模型訓練與迭代。數(shù)據(jù)采集系統(tǒng)以R1 Lite通用雙臂移動操作平臺與R1 Pro高性能仿人機器人作為標準化的數(shù)據(jù)采集本體,用于復雜任務(wù)的數(shù)據(jù)采集與驗證,確保采集的數(shù)據(jù)在格式、傳感器模態(tài)和操作尺度上的一致性,為后續(xù)的大規(guī)模處理奠定基礎(chǔ)。
星海圖8月開源的開放世界數(shù)據(jù)集(Galaxea Open-World Dataset)就是基于EDP平臺而來,在發(fā)布后兩個月內(nèi)下載量達40萬次,成為全球下載量最高的具身智能真機數(shù)據(jù)集之一。該數(shù)據(jù)集覆蓋50多個真實場景,累計時長500小時,規(guī)模超10TB。
![]()
(2)樂聚數(shù)據(jù)采集系統(tǒng)
樂聚人形機器人訓練場核心模塊分為訓練層、持久存儲層、數(shù)據(jù)層和設(shè)備層四個核心模塊,在訓練層中,系統(tǒng)利用算力GPU資源,通過Torch cuda進行高效計算。在采集本體方面,樂聚支持兩種異構(gòu)機器人形態(tài),分別為KUAVO 4pro全尺寸人形機器人和KUAVO LB輪臂式人形機器人。這兩種機器人形態(tài)可覆蓋多個場景,且支持多機器人平臺協(xié)同作業(yè)。同時,機器人配備夾爪或多指靈巧手,以滿足模仿學習、多任務(wù)策略訓練等研究需求。
此外,樂聚數(shù)據(jù)采集系統(tǒng),涵蓋數(shù)據(jù)生產(chǎn)、模型訓練、仿真測試與真機部署全流程工具鏈,配套數(shù)據(jù)工具包與示例代碼,模型具備更高的任務(wù)成功率、更全面的環(huán)境感知,能為力控策略優(yōu)化、觸覺-視覺融合模型提供優(yōu)質(zhì)數(shù)據(jù)支撐,適配不同材質(zhì)、形態(tài)物體的復雜操作場景,能更好幫助開發(fā)者構(gòu)建物理交互閉環(huán),提升機器人操作穩(wěn)定性,促進模型泛化能力。目前,樂聚已在全國建立6大訓練場,年產(chǎn)2000萬條高質(zhì)量真機數(shù)據(jù)。同時攜手開放原子開源基金會建立樂聚OpenLET社區(qū),基于該數(shù)采系統(tǒng)構(gòu)建的LET數(shù)據(jù)集開源了超60,000分鐘真機數(shù)據(jù)以及800條靈巧操作數(shù)據(jù)集。
![]()
(3)鹿明機器人數(shù)據(jù)采集系統(tǒng)
鹿明機器人FastUMI Pro多模態(tài)無本體數(shù)據(jù)采集軟硬件系統(tǒng),在精度、適應(yīng)性、效率、成本與生態(tài)五大維度均表現(xiàn)卓越,成為推動具身智能規(guī)模化的關(guān)鍵基礎(chǔ)設(shè)施。與傳統(tǒng)遙操作采集方式相比,鹿明首創(chuàng)了“為模型成功率負責”的系統(tǒng)工程范式,從硬件設(shè)計源頭保障數(shù)據(jù)質(zhì)量。鹿明推出的量產(chǎn)級產(chǎn)品FastUMI Pro,集成了為UMI場景定制的高性能傳感器,能穩(wěn)定實現(xiàn)60Hz高頻記錄,確保多模態(tài)信息的毫秒級同步。配合鹿明獨創(chuàng)的8道工業(yè)級數(shù)據(jù)質(zhì)量評估體系,使數(shù)據(jù)有效率從行業(yè)普遍的70%提升至95%以上,真正支撐起機器人策略模型的穩(wěn)定訓練與迭代。FastUMI Pro通過創(chuàng)新的硬件架構(gòu)與軟件算法,將單條數(shù)據(jù)采集時間從50秒縮短至10秒,效率提升5倍,同時將綜合成本降至傳統(tǒng)方法的五分之一。更重要的是,該系統(tǒng)實現(xiàn)了數(shù)據(jù)與機器人本體的解耦,可快速適配市場上數(shù)十種不同的機械臂和夾爪,有效打破了數(shù)據(jù)孤島,構(gòu)建起從硬件、數(shù)據(jù)到模型的全棧能力閉環(huán)。
目前,鹿明機器人正在加速數(shù)據(jù)采集產(chǎn)能的建設(shè),預期2026年實現(xiàn)超過100萬小時的UMI數(shù)據(jù)采集產(chǎn)能。1月7日,鹿明機器人正式推出“鹿明FastUMI Pro智研加速計劃”。在學術(shù)領(lǐng)域,設(shè)立論文獎勵基金,全球研究者使用FastUMI Pro設(shè)備產(chǎn)出的學術(shù)論文,發(fā)表后將獲得3萬至5萬元人民幣(4000-7000美元)的獎勵。在產(chǎn)業(yè)領(lǐng)域,鹿明贊助ICRA WBCD 2026雙臂機器人挑戰(zhàn)賽,走向全球頂級競技場,參與制定未來標準。
![]()
(4)零次方數(shù)據(jù)采集系統(tǒng)
針對具身智能訓練中普遍存在的"數(shù)據(jù)模態(tài)缺失"問題,零次方機器人在Zerith-H1設(shè)計階段即整合了各種模態(tài)傳感器,可實現(xiàn)對二維視覺信息、立體空間信息、關(guān)節(jié)信息、力反饋信息的"完整"模態(tài)信息采集。零次方的全模態(tài)數(shù)據(jù)架構(gòu)很明顯具備雙重核心優(yōu)勢。1.維度兼容性:其采集的高維度“全模態(tài)”數(shù)據(jù)可輕松降維,生成任意子模態(tài)數(shù)據(jù)集(例如剝離力觸覺數(shù)據(jù)得到純視覺-關(guān)節(jié)數(shù)據(jù)),無縫兼容現(xiàn)有所有主流算法框架的訓練需求。2.價值持續(xù)性:采集方案通過預處理工具,對齊多模態(tài)數(shù)據(jù)流,確保當前采集的數(shù)據(jù)能夠持續(xù)服務(wù)于未來3-5年可能涌現(xiàn)的新一代具身智能模型,成為支撐長期算法進化的“高維數(shù)據(jù)基座”。
另外,零次方的"全模態(tài)"數(shù)據(jù)采集人形機器人Zerith-H1,完美考慮了這種零次方的全模態(tài)數(shù)據(jù)架構(gòu)設(shè)計,實現(xiàn)了全模態(tài)數(shù)據(jù)采集與落地。Zerith-H1的上肢結(jié)構(gòu)、自由度設(shè)計全部參照人類的身體,并在此基礎(chǔ)上大幅增加關(guān)節(jié)的活動范圍,使其具備超越男性的活動操作空間。在模型訓練過程中,零次方機器人數(shù)據(jù)采集中心深度集成AI訓練工具Swanlab,實現(xiàn)對模型訓練的全過程記錄、實時監(jiān)控、數(shù)據(jù)可視化和批量實驗分析,幫助用戶科學調(diào)參、管理歷史實驗數(shù)據(jù),高效迭代自己的具身智能模型。
![]()
(5)戴盟機器人含力/觸反饋遙操作數(shù)采系統(tǒng)
CES2026上,戴盟機器人發(fā)布全球首款力/觸覺反饋遙操作數(shù)據(jù)采集系統(tǒng)DM-EXton2。戴盟機器人致力于構(gòu)建面向具身智能的靈巧操作基礎(chǔ)設(shè)施,通過“3D”戰(zhàn)略——即Device(視觸覺硬件設(shè)備)、Data(多模態(tài)交互數(shù)據(jù))、Deployment(場景化部署)——打造從感知到執(zhí)行的完整閉環(huán),以DaaS(Data as a Service)和VTLA(Vision-Tactile-Language-Action)模型驅(qū)動靈巧技能的規(guī)模化交付,讓機器人真正具備可泛化的物理世界操作能力。
![]()
(6)帕西尼數(shù)據(jù)采集系統(tǒng)
在 CES 2026 上,帕西尼重點展示了其全模態(tài)具身智能數(shù)據(jù)采集系統(tǒng),以及由多維觸覺傳感器、六維力傳感器、DexH13 靈巧手、TORA-ONE 與 TORA-DOUBLE ONE 人形機器人構(gòu)成的全棧產(chǎn)品矩陣。這一系列成果不僅實現(xiàn)了從核心感知器件到整機形態(tài)的物理跨越,更打通了從硬件執(zhí)行終端向高價值數(shù)據(jù)資產(chǎn)的技術(shù)延伸。
2025 年 6 月,帕西尼于天津落成了全球規(guī)模領(lǐng)先的具身智能數(shù)據(jù)采集與模型訓練基地 Super EID Factory。該基地基于以人為中心的“人因”數(shù)據(jù)采集范式,構(gòu)建起一支專業(yè)化數(shù)據(jù)采集師團隊。在涵蓋工廠操作、家政服務(wù)等 15+N 類核心場景中,采集師通過高頻次任務(wù)模擬,精準捕捉包含多維觸覺、多視角視覺、自體感知及空間軌跡在內(nèi)的全模態(tài)數(shù)據(jù)。依托全球領(lǐng)先的具身智能數(shù)據(jù)工廠 ,其內(nèi)部署了 150 個標準化采集單元,均集成自研的尖端采集設(shè)備與系統(tǒng),實現(xiàn)了數(shù)據(jù)捕捉的高度精準化與流程標準化。憑借這一創(chuàng)新的生產(chǎn)范式,Super EID Factory 具備年產(chǎn)近 2 億條高質(zhì)量、全模態(tài)、高可用性數(shù)據(jù)的生產(chǎn)能力,成功構(gòu)建了億級全模態(tài)數(shù)據(jù)集 OmniSharing DB。
項目投用半年以來,已支撐機器人完成電子制造、康養(yǎng)、零售等領(lǐng)域上萬種精細操作。通過將這些全模態(tài)數(shù)據(jù)轉(zhuǎn)化為標準化數(shù)據(jù)教材并面向全球合作伙伴開放共享,帕西尼不僅從根本上破解了具身智能領(lǐng)域數(shù)據(jù)質(zhì)量與生產(chǎn)效率的雙重困境,更以堅實的億級數(shù)據(jù)基座,為全球具身智能產(chǎn)業(yè)的泛化發(fā)展提供核心驅(qū)動力。
![]()
(7)越疆數(shù)據(jù)采集系統(tǒng)
越疆的數(shù)據(jù)采集系統(tǒng)基于ATOM-M多形態(tài)機器人形成了一個基于龐大實際應(yīng)用、反哺產(chǎn)品智能化的強化閉環(huán),通過一站式具身數(shù)據(jù)工具鏈以及配套的軟件平臺,旨在降低從真實場景采集數(shù)據(jù)到訓練、部署模型的全流程門檻,其中包含沉浸式VR數(shù)據(jù)采集套件以提升效率。利用動態(tài)跟蹤算法,有效抑制超調(diào)和振蕩,提高位置跟蹤響應(yīng),結(jié)合5G超低時延通信,可確保主從機器人跟蹤延時<10ms。不僅如此,越疆的X-Trainer訓練平臺,更是一款突破性的集成系統(tǒng),創(chuàng)新性地將模仿學習神經(jīng)網(wǎng)絡(luò)、工業(yè)級高精度機械臂與高性能力反饋主手融為一體,通過人類操作者的直觀遙操作示范,為機器人的技能學習帶來了前所未有的靈活性與精確度,將新場景、新任務(wù)的訓練周期大幅縮短了70%,顯著降至約2小時。
![]()
X-Trainer的核心價值還在于其構(gòu)建了一個高效、精準且開放的研究閉環(huán)。它首先通過“高效學習”機制,基于模仿學習讓機器人能夠快速復現(xiàn)并掌握人類的復雜操作技能;“精準操作”則依托工業(yè)級機械臂與高保真主手,確保了從演示到執(zhí)行的每一個動作都具備絕對的可重復性與準確性;最終,其極速部署能力與開放研究特性,使其成為AI大模型數(shù)據(jù)采集、AGI(通用人工智能)場景模擬與研究的理想物理世界交互平臺。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.