![]()
讓具身智能建立“可計算、可預測、可執行”的內部世界模型。
2026年,極有可能會被后來人標記為具身智能的分水嶺。過去兩年,我們見證了人形機器人賽道的大爆發,他們成為聚光燈下的寵兒。然而,在繁榮的Demo表演的背后,一種心照不宣的焦慮正在整個行業蔓延:為什么在發布會上能跳舞、能疊衣服、甚至能后空翻的機器人,卻無法走進真實的工廠和家庭廚房?
“現在行業的瓶頸,不在于機器人能不能動,而在于真實世界的長尾可靠性。”宸境科技聯合創始人兼CEO胡聞一針見血地指出。通俗點說,機器人不僅要能作對一次動作,更要在不可控的開放環境里,把任務做一萬次且不出錯。
胡聞算了一筆賬:“客戶買的永遠是‘單位任務成本’和‘Uptime(無故障運行時間)’。在Demo里,你可以通過預設和遙操作來‘作弊’,但在真實世界里,光照變化、地面濕滑、甚至一把椅子的擺放位置不同,都能成為摧毀機器人邏輯的長尾場景。算不過來這筆賬,具身智能就永遠只能停留在實驗室的展示柜里。”
宸境科技是空間智能領域的硬核玩家,致力于構建連接物理與數字世界的“空間基礎設施”。
當整個行業都在試圖跨越Demo到落地的“死亡谷”時,宸境科技選擇了一條極具挑戰、卻又或許是極大可能的路徑:拋棄昂貴的激光雷達,用純視覺方案重構具身智能的“眼”與“腦”。
告別“框選萬物”,擁抱“空間智能”
大模型攻克了“聽懂人話”的難關,而具身智能面臨的是更棘手的深淵:賦予機器在物理世界中絕對精準的“幾何感知”。這種感知是要在毫秒級運動中,實時丈量出世界的三維結構,并構建嚴謹的時空坐標系。
“AI教母”李飛飛教授提出的“空間智能”概念,開啟了AI主動探索世界的歷程。簡而言之,就是讓AI擁有“物理直覺”,能時刻感知自身姿態、位置及物體的幾何距離。
在胡聞看來,這正是宸境科技多年來深耕的技術腹地。作為一家早在2019年就開始布局“鏡像宇宙”的空間計算公司,宸境科技致力于將真實的物理世界,以1:1的比例在云端克隆出一個數字孿生體。這種對“空間一致性”的極致追求,讓宸境科技在相關底層技術上構建了極高的壁壘。
傳統的機器視覺往往只輸出一個二維標簽(如“這是瓶子”),但這在物理交互中是蒼白的。真正的空間智能輸出的是“空間結構+空間坐標+動態關系”。無論機器人如何劇烈晃動,它都能死死咬住目標的絕對坐標和幾何姿態。這種高精度定位能力,是機器人執行精密抓取的前提。
宸境科技即將發布的新產品,核心是讓機器人建立“可計算、可預測、可執行”的內部世界模型。這種從“識別”到“測量”的代際跨越,意味著機器人不再依賴高精地圖或二維碼,而是像人類一樣,通過雙眼形成生物級的“空間直覺”。
擁抱特斯拉FSD,純視覺的進擊
在感知路線上,特斯拉Optimus徹底轉向純視覺端到端訓練,標志著行業“新公約數”的形成:盡可能與人類共享同樣的視覺模態,機器人才能復用人類社會的物理規則。
在胡聞眼中,純視覺不僅是未來的終局,更是當下的最優解。“我們堅定選擇以視覺感知為核心的全棧方案,是基于三個落地底層事實:可規模化、可泛化、可持續迭代。”
首先是成本鐵律。要把能力裝進百萬臺機器人里,傳感器必須便宜且量大。攝像頭作為消費電子里的成熟組件,符合摩爾定律,而激光雷達的降本曲線依然難以支撐家用場景。
更關鍵的是信息密度。激光雷達只能提供幾何位置,而視覺包含了語義、紋理、物理屬性等海量信息。“視覺攜帶的信息量是最大的。從道路結構到室內場景,本質是同一個世界模型的問題。我們期待Scaling Law(規模效應)能像在LLM上一樣,在視覺模型上復現。只有純視覺,才能喂飽那個通用的世界模型。”胡聞強調。
當然,純視覺曾有短板。傳統的視覺方案非常“嬌氣”,它怕反光,遇到落地的玻璃門或不銹鋼臺面,往往會產生“幻覺”,把玻璃看成空氣直接撞上去,或者被反射的虛像帶偏了路;怕強光,光照條件的劇烈變化會讓它丟失深度信息;也怕運動,當機器人快速轉身或轉身或走路顛簸時,畫面會產生動態模糊,機器人瞬間就會“暈頭轉向”,導致定位漂移。
而這,恰恰是宸境科技此次新品試圖攻克的“死穴”,通過端側大算力和獨創算法,讓視覺感知在工業級的環境下依然穩如泰山。
做具身智能時代的“賣水人”
隨著賽道變得擁擠,自研頂級視覺系統對許多機器人廠商而言可能是巨大的“戰略陷阱”。“全棧自研是一場消耗大量資金與頂級人才的長期戰爭。對于本體廠商,最稀缺的是時間窗口。”胡聞直言。
宸境科技給即將發布的新品自主空間AI攝像頭做了一個清晰的定位:做機器人的“標準化眼睛”和“世界模型入口”。胡聞表示,產品的商業路徑清晰:“既是機器人To C和To B規模化的關鍵瓶頸之一,也是最容易形成平臺化規模經濟的環節之一。”胡聞透露,宸境科技的新品已經與行業“頂流”宇樹科技達成合作。此前,宇樹憑借G1、H1等產品在運動控制領域獨步天下,但在復雜環境感知的魯棒性上,行業一直期待出現更強的解決方案。
作為公認的硬核技術派,宇樹科技對硬件的要求近乎苛刻。“宇樹科技是極致的技術驅動,他們已經在多個場景開始測試和部署我們的Looper Robotics 這套視覺感知方案。”胡聞透露。能通過宇樹的嚴苛測試,甚至在抗震指標上達到24g加速度量程,能適配高動態作業需求,本身就證明了這套視覺方案的工業級實力。
2026年1月28日上午,宸境科技將在杭州舉辦新品發布會,正式啟動面向具身智能的LooperRobotics品牌并揭曉其產品矩陣。這可能是目前市面上極度接近“空間智能”終極形態的產品組合:
Insight全自主空間智能相機:一款為具身智能量身打造的智能相機。它搭載大算力神經網絡計算單元,將原本沉重的AI算法直接推向端側邊緣,并且內置高性能VSLAM引擎,大大拓展了端上感知的邊界。配合188°超廣角鏡頭與24G超大加速度量程,它能在極端運動下實時處理復雜的空間信息,為機器人提供如生物般敏銳、穩健的視覺反饋。
TinyNav高性能導航算法庫:一套輕量化高精度3D導航算法庫,是機器人的“空間潛意識”。它打破了傳統導航對昂貴算力的依賴,在低成本嵌入式系統上亦能提供穩健的定位與建圖能力。TinyNav深度優化的局部感知能力,確保機器人在高不確定性的復雜環境下保持極高的魯棒性。
RoboSpatial空間編輯工具鏈:一套面向具身智能行業應用的3D空間編輯工具。它將復雜的空間智能能力解構為易用的“增刪改查”操作,開發者可以像編輯文檔一樣在3D實景中定義POI、設定任務邏輯。它與底層系統的無縫打通,讓具身智能應用的落地從“月”縮短到“天”。
當機器人真正擁有了空間智能,它將不再是機械執行指令的機器。具身智能“睜眼”的時刻,從LooperRobotics開始。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.