![]()
新智元報道
編輯:Aeneas
【新智元導讀】一條X,直接引爆了機器人圈:裝上OpenClaw的宇樹人形機器人,竟開始理解空間與時間!機器人第一次擁有「世界記憶」,能記住人、物體和發生過的事——天網,真的要來了?
就在剛剛,全球開源機器人圈,被一條X引爆了!
![]()
一臺裝載OpenClaw的宇樹人形機器人在房間里移動,它的眼睛來自LiDAR激光雷達、雙目攝像頭和RGB相機,這些傳感器的數據,被輸入一個系統。
然后,發生了一件此前從未被任何機器人做到的事——這個宇樹機器人,開始理解空間和時間!
它不僅知道房間、人、物體在哪里,還知道什么時候發生了什么。
團隊把這種能力稱為Spatial Agent Memory(空間智能體記憶),也就是說,從此機器人擁有了「世界記憶」能力!
而把這種能力帶到機器人世界的,就是火爆全球的項目OpenClaw。
這項成果一經發布,立刻得到了OpenClaw之父Peter Steinberger的轉發。
這宣告著具身智能的里程碑式突破:OpenClaw正式掌握了物理空間和時間感知能力。
![]()
天網,剛剛開源了?
項目一發布,評論區的網友們就炸了。
他們迅速分成了兩派,有一派非常興奮:開源機器人終于擁有了時空感知,這是邊緣AI的巨大突破!
![]()
![]()
可以說,這正是我們夢寐以求的具身智能突破!
![]()
![]()
而另一派則開始擔憂:如果機器人都能擁有空間感知,這不是相當于天網剛剛在GitHub建了一個倉庫?
![]()
如果一個人機器人能精準分析家里每個人的生活規律,知道誰最常去廚房,知道垃圾什么時候倒,這種「全知全能」的監視能力,在缺乏倫理框架約束的情況下,簡直令人不寒而栗!
![]()
甚至有人說,是時候接軍方訂單了。
![]()
而且,最讓人興奮的是:這一切都是完全開源的!
雖然在這次的視頻中,OpenClaw直接把裝在了宇樹機器人上,但這套系統其實是完全硬件無關的。
你可以用任何激光雷達、立體攝像頭或RGB攝像頭來集成。
不僅可以裝在Unitree G1這樣的人形機器人上,還能和大多數無人機、四足機器狗整合。
甚至,在理論上,我們完全可以用舊iPhone上的激光雷達來改造一個機器人。
![]()
總之,任何硬件,只要能跑OpenClaw,就能立刻擁有時空感知。
它還不依賴ROS(機器人操作系統),支持全動態障礙物避讓和SLAM(即時定位與地圖構建)。
開源機器人,正在走向天網時刻
如果有一天,你家里的機器人忽然跟你說:「你的車鑰匙昨晚落在廚房桌子上了」,你可能只是覺得它很智能。
但如果它繼續說「上周一晚上8點,一個陌生人來過你家」,甚至「你平均每天在廚房停留47分鐘」,你是不是就覺得有點毛骨悚然了?
你會意識到:這個機器人一直在觀察你,甚至在記住關于你的一切!
最令人震驚的是,這些并不是簡單的視頻回放,而是來自一種新的能力:空間+時間+語義的聯合記憶。
機器人,并不只是在記錄畫面,而是在構建一個世界模型!
以前的機器人,為什么不太聰明
相比之下,以前的機器人,為什么看起來不太聰明呢?
原因在于,首先LLM只有靜態記憶,只記得訓練數據,卻不記得你五分鐘前把鑰匙放在哪了。
然后,就是空間的缺失。它們可能在語言的世界里游刃有余,在物理世界里卻很難理解「廚房在客廳左邊」。
另外,就是傳統的RAG只能搜文字,但機器人面對的是,卻是海量的視頻流和深度數據。
![]()
![]()
這些幾百小時視頻、深度圖、三維空間、物體位置和時間變化,意味著機器人要面對的,是現實世界的數據洪流。
![]()
但這個團隊,卻做了一件很瘋狂的事。
SpatialRAG黑科技,給機器人裝上3D云腦
他們祭出了殺手锏——Spatial Agent Memory(空間智能體記憶)和SpatialRAG。
![]()
![]()
這套系統的核心邏輯非常硬核:它把視頻、雷達檢測、幀圖像、里程計全部揉在一起,構建成一個體素(Voxel)化的世界。
每一個空間小方塊(體素)都被打上了空間矢量嵌入和語義標簽。結果就是,機器人的大腦變成了一個包含對象、房間、幾何、時間、圖像、點云的多維向量存儲庫。
可以說,這就是讓機器人理解物理世界所需要的記憶骨架。
依靠這個系統,機器人可以在object(物體)、room(房間)、semantic(語義)、geometry(幾何)、time(時間)、image(圖像)、pointcloud(點云)等多個維度搜索,由此第一次擁有了完整的空間記憶。
因此,現在它能回答這些直擊靈魂的問題了。
比如「我鑰匙丟哪兒了?」「上周一誰來過我家?」「誰在廚房待的時間最長?」「垃圾該什么時候倒?」
網友質疑:天網降臨,還是老頭漫步?
這項成果一出,評論區直接炸鍋了。
有吐槽派懷疑說,這延遲不得卡死?是派100歲老爺爺來幫我做家務嗎?
但技術團隊火速打臉表示:「不,它并不是20Hz跑實時控制,而是高層智力協調器。它負責指揮,動作運行可以異步,完全不卡頓!」
![]()
還有人質疑道:為什么不用專用ML模型,而是要用LLM和Cron這種魯布·戈德堡機械呢?
對此,開發者表現得非常坦誠:「把LLM裝到硬件上確實容易,但讓它維持一個持續的、關于什么時間、什么地點發生了什么的物理上下文,才是最難的。」
而OpenClaw提供的,不僅僅是一個輸入接口,而是包含了一整套代理基礎設施(Agent Infrastructure):子代理編排、MCP(多點協作協議)處理、工具安全審計、插件系統。
這讓它比原生的Claude代碼更適合作為機器人的「前額葉」。
![]()
另外在評論區,一位機器人工程師說了一句非常真實的話:最難的不是空間理解,而是讓系統在現實世界穩定運行。
現實世界的問題,包括傳感器沖突、光照變化、動態障礙、數據噪聲和硬件故障等,而仿真世界,永遠不會讓你面對這些問題。
![]()
具身智能的最后一公里
很多人說,「具身」是意識的關鍵。這次嘗試告訴我們:讓LLM上硬件不難,難的是讓它產生持久的、跨越時空的物理上下文。
當機器人開始理解因果,開始記住位置,它就不再是一個會走路的音箱,而是一個真正的「物理代理」。
或許,天網不會突然降臨,但事情可能是這樣的:機器人學會看見世界,記住世界,最后學會改變世界。
而當這些能力全部開源的時候,任何人都可以構建一個機器人大腦。
![]()
有一天,當我們回頭看這一刻,可能會意識到:這就是機器人時代真正開始的地方。
家用機器人的時代,可能真的要被這只「開源爪子」撓開了。
參考資料:
https://x.com/stash_pomichter/status/2028645216505549168
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.