2026年4月,北京亦莊機器人馬拉松火熱舉辦,行業(yè)迎來新一輪技術(shù)展示熱潮。當下機器人領(lǐng)域正呈現(xiàn)鮮明的專業(yè)化分工:跑步機器人專注運動性能優(yōu)化,表演機器人側(cè)重姿態(tài)與交互,而開普勒機器人,始終聚焦工業(yè)實干,做真正能在產(chǎn)線上創(chuàng)造價值的實用型機器人。
同月,上海開普勒機器人正式發(fā)布國內(nèi)首個原生適配VTLA全感知模型的力觸覺全棧數(shù)采解決方案——Kepler-OmniTac?。方案由開普勒全棧自研,涵蓋新一代數(shù)采套件、Kepler-OmniVTLA大模型及原生數(shù)據(jù)集,可直接采集原生力觸覺全模態(tài)數(shù)據(jù),實現(xiàn)機器人邊工作、邊數(shù)采,在真實工業(yè)場景里邊訓練、邊進化。
這一發(fā)布,標志著工業(yè)人形機器人正式從以視覺為主的VLA時代,邁入更貼合生產(chǎn)實際的OmniVTLA時代。我們始終專注工業(yè)落地場景,致力于構(gòu)建真正實用的全感知智能機器人體系,補齊機器人長期缺失的"物理交互能力",推動行業(yè)從炫技展示走向務(wù)實量產(chǎn),向更智能、更可用、更能干活的方向持續(xù)邁進。
一、數(shù)據(jù)驅(qū)動,開普勒具身智能邁入Gen3.0時代
開普勒機器人對具身智能的探索,始終以落地價值為核心錨點。開普勒CEO宋華曾多次公開表示:"早期大模型等AI技術(shù)尚未成熟,行業(yè)內(nèi)多數(shù)數(shù)據(jù)采集停留在實驗室環(huán)境,產(chǎn)出的'完美數(shù)據(jù)'與真實工業(yè)場景脫節(jié),既無法支撐機器人完成復(fù)雜操作,也導(dǎo)致企業(yè)投入產(chǎn)出比極低,難以形成規(guī)模化落地能力。"
基于這一判斷,開普勒為自研的KeplerBrain類腦系統(tǒng)?規(guī)劃了清晰的三階演進路線:
? 2021–2023具身智能Gen1.0:以規(guī)則驅(qū)動模型為核心,聚焦封閉場景完成基礎(chǔ)作業(yè)驗證,實現(xiàn)"無泛化但穩(wěn)定可靠"的核心目標,夯實工業(yè)級穩(wěn)定基礎(chǔ);
? 2024–2025具身智能Gen2.0:升級為數(shù)據(jù)驅(qū)動AI模型,在原有封閉場景中實現(xiàn)"有條件泛化",可適配同類場景下的小幅變量調(diào)整,實現(xiàn)場景內(nèi)靈活適配。
如今,人形機器人行業(yè)迎來關(guān)鍵拐點:執(zhí)行器、整機控制、靈巧手等硬件已實現(xiàn)規(guī)模化突破,軀體成熟,智能待啟。但行業(yè)仍被三大痛點牢牢束縛:
? 感知維度缺失-純視覺方案無法捕捉接觸力、摩擦力等物理交互信息
? 力觸覺數(shù)據(jù)稀缺-缺乏全維度接觸數(shù)據(jù)支撐精細操作
? 模型與數(shù)據(jù)不匹配-主流模型原生不支持觸覺模態(tài)
機器人普遍"看得清、摸不準、做不精"。
依托早些年已完成的本體全棧布局與大量封閉場景落地經(jīng)驗,開普勒正式宣告:邁入KeplerBrain具身智能Gen3.0時代——以海量真實數(shù)據(jù)驅(qū)動端到端大模型,實現(xiàn)通用場景、完全泛化。
開普勒明確判斷:工業(yè)人形機器人的下一程,不再拼硬件,而拼感知與數(shù)據(jù)。物理世界感知+高保真交互數(shù)據(jù),將成為真正的核心競爭力。
為此,公司堅定采用"具身智能大腦+力觸覺全棧數(shù)采"雙輪驅(qū)動戰(zhàn)略,放棄"廣而淺"的橫向泛化,深耕工業(yè)垂類縱向泛化路徑,用真實場景數(shù)據(jù)破解行業(yè)智能瓶頸,讓機器人真正實現(xiàn)"會摸、會懂、會做",升級為具備真實物理世界感知與決策的工業(yè)智能體。
二、原生VTLA,打造觸覺+六維力全感知
本次推出的Kepler-OmniTac?力觸覺全棧數(shù)采解決方案,由自研Kepler-OmniTac數(shù)采套件、Kepler-OmniVTLA數(shù)據(jù)集、KEPLEROmniVTLA大模型端到端打通,核心是"人機同源感知"*,國內(nèi)首個實現(xiàn)"硬件-數(shù)據(jù)-模型"VTLA原生適配的工業(yè)級方案。
不止能看見,更懂推拉擰
Kepler-OmniTac數(shù)采套件為開普勒全棧自研,采用雙方案并行架構(gòu),整體輕量化設(shè)計,可快速適配各類真實工業(yè)場景。
1.開普勒同構(gòu)力觸數(shù)采套件
由"同構(gòu)力反饋外骨骼+力觸反饋手部套件(夾爪/五指手套)+開普勒人形機器人(夾爪版/靈巧手版)"組合而成。
? 核心優(yōu)勢:動作空間與機器人高度一致,可原位采集高保真力控與接觸數(shù)據(jù),減少人機形態(tài)差異,在滑移、穩(wěn)定性、材料區(qū)分、順應(yīng)控制等信號采集上表現(xiàn)優(yōu)異。同時通過本地-邊緣部署、通信優(yōu)化、溫度補償、自校準等技術(shù),有效抑制延遲、溫漂與噪聲,數(shù)據(jù)穩(wěn)定可靠。
![]()
2.類UMI觸覺手套數(shù)采套件
以五指觸覺采集手部套件為核心,可靈活搭配外骨骼擴展使用。
? 核心優(yōu)勢:大幅降低采集門檻與硬件成本,無需昂貴機器人即可快速采集大量人類演示數(shù)據(jù),適合數(shù)據(jù)集擴容與算法快速驗證。通過多機型映射、策略蒸餾、多視角融合等技術(shù),緩解人手-機器人差異與視角遮擋問題,低成本兼顧數(shù)據(jù)質(zhì)量。
雙套件協(xié)同,高質(zhì)高效全覆蓋
? 同構(gòu)外骨骼搭配力觸手部采集套件實現(xiàn)精準動作映射與力覺反饋,保障遙操作數(shù)據(jù)高保真;
? 觸覺手套兼顧低成本與數(shù)據(jù)多樣性,提升采集效率與覆蓋度。
兩者互補配合,可靈活覆蓋不同場景、不同精度需求的全品類數(shù)據(jù)采集任務(wù),為OmniVTLA大模型訓練提供高質(zhì)量、高多樣性的多模態(tài)數(shù)據(jù)支撐。
![]()
海量真實數(shù)據(jù),筑牢感知底座
Kepler-OmniVTLA數(shù)據(jù)集,基于自研采集設(shè)備原生采集構(gòu)建,自帶"真實無虛、多元覆蓋、全模融合、規(guī)模領(lǐng)先"四大特質(zhì),數(shù)據(jù)儲備堪稱豐厚:累計收錄10萬+條真人實采全模態(tài)場景數(shù)據(jù),覆蓋商業(yè)、工業(yè)、辦公、家居等多行業(yè)核心場景,囊括20+種專屬工業(yè)技能與40+種真實應(yīng)用場景,真實還原核心場景全鏈路任務(wù)。
從VLA到VTLA,一腦適配多機
KEPLEROmniVTLA大模型,實現(xiàn)VLA→VTLA關(guān)鍵升級,將力觸覺模態(tài)提升至與視覺、語言、動作同等核心地位,原生支持力觸覺編碼與跨模態(tài)深度融合:
核心突破:從"被動看"到"主動摸",精準理解接觸力度、材料軟硬等物理屬性,柔性/易碎工件操作"不翻車";
能力躍遷:模仿學習2.0落地,告別單純"抄動作",深度"懂邏輯",復(fù)雜任務(wù)泛化能力"翻倍漲";
實用價值:一腦多機高效適配,通過多機型目標映射與策略蒸餾,一套模型可兼容不同自由度、不同結(jié)構(gòu)的人形機器人,無需重復(fù)開發(fā),大幅降低部署成本;
工業(yè)實效:接觸密集型任務(wù)成功率提升10%-20%,試錯成本"砍一刀",已在汽車、3C等行業(yè)真實工廠完成POC驗證,徹底補齊工業(yè)人形機器人感知短板。
![]()
三、邊工作、邊數(shù)采、邊訓練、邊進化
當前機器人訓練的核心數(shù)據(jù),多以純視覺數(shù)據(jù)和虛擬合成數(shù)據(jù)為主。虛擬數(shù)采場、集中式基地產(chǎn)出的理想化數(shù)據(jù),脫離了工廠的真實環(huán)境——不同材質(zhì)的零件、復(fù)雜的光照遮擋、動態(tài)的生產(chǎn)流程,讓這類數(shù)據(jù)在工業(yè)場景的泛化成功率僅【25%-30%】;而純視覺數(shù)據(jù)存在天然盲區(qū),無法感知力、觸等物理信息,在精密裝配、多材質(zhì)抓取等精細操作中,幾乎不具備實用價值。
傳統(tǒng)遙操作數(shù)采作為"人工主導(dǎo)的離線采集模式",同樣未能解決數(shù)據(jù)與真實場景脫節(jié)的核心問題,而Kepler-OmniTac?憑借于"硬件-數(shù)據(jù)-模型"端到端原生打通:硬件實時采集不卡頓,數(shù)據(jù)管線秒級處理無延遲,模型原生適配力觸覺模態(tài),三者形成高效閉環(huán),大幅減少人工參與,快速完成"采集-處理-訓練-迭代"全流程。率先實現(xiàn)"干活即采數(shù)、采數(shù)即訓練、訓練即進化"的革命性突破,徹底打破行業(yè)"采集-訓練-部署"割裂的痛點。
我們的優(yōu)勢不止于技術(shù)邏輯,更在汽車、3C等真實產(chǎn)線得到驗證
產(chǎn)線實測:從能用,到好用
汽車精密裝配:1000次零失誤,成功率98%
? 行業(yè)痛點:傳統(tǒng)遙操作數(shù)采與虛擬/純視覺數(shù)據(jù)難以精準還原精密裝配的力控細節(jié)與真實場景,采集數(shù)據(jù)適配性差,泛化成功率僅25%-30%,導(dǎo)致機器人實際作業(yè)易卡滯、錯位,依賴人工補位,效率低、成本高;
? 我們的突破:VTLA模型通過六維力傳感器+觸覺反饋,動態(tài)修正姿態(tài),實現(xiàn)亞毫米級精準對齊,采集數(shù)據(jù)與實際作業(yè)場景1:1匹配;
? 落地數(shù)據(jù):某汽車工廠1000次連續(xù)裝配,成功率達98%,較虛擬/純視覺數(shù)據(jù)的25%-30%泛化成功率實現(xiàn)質(zhì)的飛躍,產(chǎn)線產(chǎn)能提升30%,人工成本降低40%,大幅減少人工干預(yù)。
![]()
多材質(zhì)抓取:零滑落,成功率99%
? 行業(yè)痛點:傳統(tǒng)遙操作數(shù)采與虛擬/純視覺數(shù)據(jù)無法精準捕捉不同材質(zhì)零件的受力差異與真實場景特性,采集數(shù)據(jù)通用性差,機器人抓取時易出現(xiàn)抓碎、滑落問題,人工干預(yù)率高,幾乎不具備實用價值;
? 我們的突破:VTLA模型通過力觸覺實時反饋,動態(tài)調(diào)節(jié)抓取力度(重物抓牢、輕物輕柔、易碎品控力),采集數(shù)據(jù)覆蓋全場景材質(zhì)特性與復(fù)雜環(huán)境;
? 落地數(shù)據(jù):某制造工廠多品種小批量零件抓取及放置,抓取成功率99%,連續(xù)作業(yè)零滑落。
開普勒K2大黃蜂目前已成功實現(xiàn)自主拆垛,顯著降低人工干預(yù),推動產(chǎn)線自動化升級,徹底解決純視覺與虛擬數(shù)據(jù)的實用化難題。
![]()
四、從人工采集,到自主成長,補齊感知短板
傳統(tǒng)遙操作數(shù)采與虛擬/純視覺數(shù)據(jù)僅解決"數(shù)據(jù)怎么采",但無法解決"數(shù)據(jù)怎么用、機器人怎么升級"的核心問題;而我們的方案實現(xiàn)全鏈路高效閉環(huán):
? 對企業(yè):無需額外投入采集時間與大量人工成本,機器人自主進化,持續(xù)降低產(chǎn)線試錯成本與人工干預(yù),擺脫對低泛化率數(shù)據(jù)的依賴;
? 對行業(yè):打破"人工依賴型數(shù)采"與"虛擬數(shù)據(jù)脫節(jié)場景"的雙重瓶頸,用"力觸覺+視覺"雙驅(qū)動的自主成長模式,讓機器人真正適配工業(yè)場景的復(fù)雜多變,這也是我們能在汽車、3C、物流等行業(yè)快速落地的核心原因。
1. 補齊感知短板:首次實現(xiàn)"視覺+力觸覺"全維度物理感知,讓機器人不止"看見",更能"觸摸真實",解決遮擋、反光、柔性物體等場景失效問題;
2. 降低數(shù)據(jù)門檻:提供開箱即用的工業(yè)力觸覺數(shù)采方案,大幅降低企業(yè)獲取高保真交互數(shù)據(jù)的成本與周期,加速具身智能迭代;
3. 加速場景落地:原生適配VTLA模型,數(shù)據(jù)與模型深度協(xié)同,提升機器人在精密制造、汽車裝配、物流分揀等場景的作業(yè)精度與穩(wěn)定性,助力工業(yè)人形機器人規(guī)模化商用。
五、以數(shù)據(jù)為芯,從工業(yè)出發(fā),向萬物智能延伸
開普勒深耕工業(yè)人形機器人領(lǐng)域,旗下K2"大黃蜂"機器人已在工業(yè)制造、物流作業(yè)、高空作業(yè)等場景完成穩(wěn)定驗證。本次力觸覺全棧數(shù)采方案的發(fā)布,是公司從"硬件研發(fā)"向"硬件+數(shù)據(jù)+模型"全棧智能公司升級的關(guān)鍵一步。
未來,開普勒將立足工業(yè)、跳出工業(yè),持續(xù)迭代VTLA模型與力觸覺數(shù)采體系,以工業(yè)級高可靠能力為根基,不斷拓展全場景智能邊界;聯(lián)合生態(tài)伙伴共建「場景-數(shù)據(jù)-模型」正向循環(huán),讓機器人真正具備人類級物理感知與交互能力,從賦能智能制造,走向服務(wù)萬物智能。
來源:北青網(wǎng)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.