“連融三輪,具身智能「靈巧操作」走向臺前。
當(dāng)具身智能從概念熱潮回歸落地理性,行業(yè)開始冷靜審視:究竟怎樣的技術(shù)路線和商業(yè)模式,才能讓機(jī)器人真正走出實(shí)驗(yàn)室,在千行百業(yè)中創(chuàng)造價(jià)值?
在這個(gè)關(guān)鍵節(jié)點(diǎn),專注“靈巧操作”的瞬恒智能以連續(xù)三輪融資切入市場視線。
機(jī)器人大講堂獲悉,這家具身智能企業(yè)于近期連續(xù)完成天使輪、天使+輪及天使++輪融資。投資方包括英諾基金、中新具身、峰瑞資本、清科控股。資金將主要用于具身智能小腦模型研發(fā)、視觸覺感知技術(shù)迭代、靈巧操作算法進(jìn)化、基礎(chǔ)硬件量產(chǎn)布局及全球高端技術(shù)人才招募。
01.
資本為何青睞“靈巧操作”?
在當(dāng)前機(jī)器人領(lǐng)域,炫技式Demo層出不窮,但真正能下場干活、解決實(shí)際問題的產(chǎn)品極為有限。專注“靈巧操作”的瞬恒智在此時(shí)連續(xù)完成三輪融資,可以解讀為資本方對“務(wù)實(shí)落地”能力的一次明確投票。
2025年全球人形機(jī)器人市場迎來爆發(fā)式增長。根據(jù)IDC及Omdia等機(jī)構(gòu)數(shù)據(jù),全年出貨量約1.3萬至1.8萬臺,中國廠商包攬銷量前九。宇樹科技、智元機(jī)器人出貨量均超5000臺,位居全球前列。業(yè)內(nèi)普遍認(rèn)為,2026年將成為機(jī)器人規(guī)模化量產(chǎn)與商業(yè)驗(yàn)證關(guān)鍵拐點(diǎn)。
而要在真實(shí)場景中創(chuàng)造價(jià)值,機(jī)器人必須跨越從“能跑、能跳”到“能干活”的鴻溝——這正是靈巧操作要解決的問題。
大量勞動作業(yè)場景中,人類做得熟練高效、但傳統(tǒng)自動化難以完成的工序,都與“觸覺”強(qiáng)相關(guān)。尤其是觸覺傳感器等核心器件性能不足,是制約機(jī)器人規(guī)模化落地的關(guān)鍵瓶頸。
![]()
瞬恒智能所在的這條賽道,切入的正是工業(yè)制造精密裝配、物流倉儲無序分揀等依賴末端執(zhí)行能力的關(guān)鍵環(huán)節(jié)。換句話說,解決了靈巧操作的問題,機(jī)器人才能真正創(chuàng)造生產(chǎn)力價(jià)值。
02.
技術(shù)體系:硬件、感知與模型的深度耦合
“靈巧操作”并非一個(gè)簡單概念,涉及結(jié)構(gòu)設(shè)計(jì)、驅(qū)動控制、傳感技術(shù)和人工智能等多學(xué)科深度耦合,任何一塊短板都會導(dǎo)致整體失效。
瞬恒智能的解法是構(gòu)建覆蓋硬件本體、觸覺感知、小腦模型、數(shù)據(jù)平臺的靈巧操作全棧技術(shù)體系,聚焦精細(xì)操作、多模態(tài)感知、人機(jī)交互、數(shù)據(jù)閉環(huán)等方向。
硬件層面,瞬恒智能堅(jiān)持全棧自研路線,打造高性能雙臂機(jī)器人硬件平臺。機(jī)器人大幅提升機(jī)身姿態(tài)適應(yīng)性、作業(yè)空間覆蓋度與場景適配能力,可輕松應(yīng)對多場景下的復(fù)雜走位與精細(xì)操作需求。同時(shí),機(jī)器人通過精準(zhǔn)力覺感知、柔順交互控制與自適應(yīng)操作響應(yīng),為機(jī)器人高精度作業(yè)、人機(jī)安全共融、非結(jié)構(gòu)化環(huán)境操作提供核心硬件支撐。
感知層面,瞬恒以視觸覺傳感器為載體,創(chuàng)新性地提出Tacchi視觸覺感知虛實(shí)融合方法,構(gòu)建“TactileNet觸覺模型”。這一模型使系統(tǒng)不僅能定位物體,還能實(shí)時(shí)感知抓取力度、表面紋理、滑動趨勢,為操作觸覺小腦模型提供基礎(chǔ)。
模型層面,瞬恒正在研發(fā)的“小腦模型”專注于精細(xì)運(yùn)動控制與實(shí)時(shí)反饋,且融入場景下的原子技能庫,真正做到場景下的開箱即用;同時(shí)與大模型的上層規(guī)劃形成分工,完成從任務(wù)理解到動作執(zhí)行的閉環(huán)。
硬件本體與公司自研的觸覺感知、靈巧操作算法、小腦決策模型深度協(xié)同,構(gòu)建 “硬件本體 + 多模態(tài)感知 + 智能決策 + 靈巧執(zhí)行” 的全棧技術(shù)閉環(huán),構(gòu)成了瞬恒智能的核心技術(shù)壁壘,為具身智能落地復(fù)雜操作場景筑牢硬核底座。
03.
“頂天立地”的團(tuán)隊(duì):學(xué)術(shù)與產(chǎn)業(yè)的雙重基因
技術(shù)路徑的選擇,歸根結(jié)底是人的選擇。瞬恒智能的核心團(tuán)隊(duì),呈現(xiàn)出“頂尖學(xué)術(shù)+頭部產(chǎn)業(yè)”的稀缺雙重基因,這是其能夠堅(jiān)持長期主義并快速迭代的關(guān)鍵。
首席科學(xué)家方斌,作為北京郵電大學(xué)人工智能學(xué)院的拔尖人才教授(原清華大學(xué)計(jì)算機(jī)系任教),是國際知名的具身智能、觸覺感知與機(jī)器人靈巧操作領(lǐng)域?qū)<摇?/p>
他曾在IJRR、IEEE TRO等頂級期刊發(fā)表百余篇論文,主持多項(xiàng)國家級重點(diǎn)科研項(xiàng)目,學(xué)術(shù)影響力位居全球前列;撰寫人形機(jī)器人及具身智能相關(guān)決策咨詢報(bào)告,獲國辦采納及中央領(lǐng)導(dǎo)人批示,顯示出其技術(shù)洞察的前瞻性與社會價(jià)值。
![]()
更為重要的是,方斌教授并非“紙上談兵”的學(xué)者。他始終踐行“頂尖學(xué)術(shù)洞察驅(qū)動產(chǎn)業(yè)創(chuàng)新”的雙重使命。近兩年,作為第一指導(dǎo)教師指導(dǎo)學(xué)生團(tuán)隊(duì)榮獲中國國際大學(xué)生創(chuàng)新大賽金獎、中國工程機(jī)器人大賽暨國際公開賽一等獎、中國機(jī)器人及人工智能大賽一等獎、首都挑戰(zhàn)杯金獎和特等獎等10余項(xiàng)。
其中“千態(tài)柔握”項(xiàng)目通過構(gòu)建的RobotGPT具身模型進(jìn)行感知、推理與決策,實(shí)現(xiàn)靈巧末端的復(fù)雜抓取。其技術(shù)架構(gòu)與瞬恒智能以操作模型為核心的技術(shù)路徑高度吻合。同時(shí),項(xiàng)目已在美團(tuán)、京東等企業(yè)場景開展示范應(yīng)用,形成“學(xué)術(shù)探索-技術(shù)驗(yàn)證-場景打磨”的閉環(huán)路徑。
![]()
這一事件,可以視為對瞬恒智能技術(shù)路線的一次極具分量的“學(xué)術(shù)驗(yàn)證”。
此外,瞬恒的核心技術(shù)成員來自清華大學(xué)、北京航空航天大學(xué)、哈爾濱工業(yè)大學(xué)、慕尼黑工業(yè)大學(xué)等高校,以及華為、大疆、騰訊Robotics X等企業(yè)。團(tuán)隊(duì)平均從業(yè)經(jīng)驗(yàn)10年以上,能力覆蓋底層算法、硬件系統(tǒng)、數(shù)據(jù)工程、產(chǎn)業(yè)落地等環(huán)節(jié)。
04.
商業(yè)化路徑:從場景切入,交付解決方案
瞬恒智能走的路線極為務(wù)實(shí)。
中國工程院外籍院士張建偉在近期交流中表示:“專注于解決具體、剛需的靈巧操作問題,是當(dāng)前創(chuàng)造產(chǎn)業(yè)價(jià)值的關(guān)鍵。”這一觀點(diǎn)與瞬恒智能“以硬件為基石,深度融合觸覺及小腦模型,從場景務(wù)實(shí)切入”的技術(shù)與商業(yè)化路徑的路線完全呼應(yīng)。
據(jù)介紹,公司所有技術(shù)均以現(xiàn)場具體任務(wù)為牽引進(jìn)行迭代,通過持續(xù)收集真實(shí)場景下的多模態(tài)數(shù)據(jù)反哺模型優(yōu)化,形成“場景定義—技術(shù)突破—數(shù)據(jù)反饋”的閉環(huán),確保技術(shù)始終服務(wù)于生產(chǎn)力提升。
目前,瞬恒智能已與多個(gè)領(lǐng)域的頭部客戶達(dá)成合作,覆蓋工業(yè)制造、物流倉儲等場景。據(jù)介紹,在部分合作案例中,瞬恒的解決方案幫助客戶提升了核心工序的自動化率與良品率。
瞬恒智能的選擇是專注而非泛化。在具身智能的宏大敘事中,它切入的是一個(gè)現(xiàn)實(shí)問題:讓靈巧機(jī)器人創(chuàng)造生產(chǎn)力。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.