henry 發自 凹非寺
量子位 | 公眾號 QbitAI
2026年的春晚,注定是屬于機器人的。
不知道有多少人像我一樣,在看到馬麗的“鐵哥們”時,沒繃住,直接笑出了聲。
這個叫“小蓋”的家伙,是真的物理意義上的“鐵哥們”。
節目里,騰哥上春晚得靠它,它甚至還給自己排了一出表演干活的“劇本”:

盤盤核桃、疊疊衣服、嗆嗆騰哥,直接把春晚的笑點拉滿了。
但笑過之后,很難忽視的一點是——小蓋這次在春晚做的事情不太一樣。
它不是在秀動作,而是在執行任務:
貨架取物、清理碎片、整理環境,甚至串烤腸、疊衣服。

據悉,這是春晚舞臺上第一個上臺認真執行任務、在自己工位上“干活”的機器人。
而把“小蓋”帶上春晚舞臺干活的,正是被官方定位為具身大模型機器人的銀河通用機器人,以及它背后那套首次公開的“大腦-小腦-神經控制”一體化系統銀河星腦AstraBrain。
也正是這套系統,讓舞臺上那些看似隨意的取物、清理、整理,不再依賴動作腳本,而是來自完整的感知-決策-執行閉環。
而在節目外,小蓋也已經將這套能力延伸到了全國各地的100家銀河太空艙,真正讓機器人走進生活。
春晚大舞臺,“干活”銀河來
咱不演“馬麗單飛,沈騰怎么辦”的戲中戲,直接看這次真正的主角——
馬麗的“鐵哥們”,小蓋(Galbot)。
“盤核桃”:手內靈巧操作+雙手分工協同
先看一個看似整活、實則硬核的動作:盤核桃。
關注機器人領域的都知道,這事并不簡單。
一方面,核桃表面不規則、質量分布不均,在翻轉過程中受力點持續變化。手指只要有一點點力矩誤差,核桃就會“cei”在地上。
另一方面,對機器人來說,這幾乎等同于人戴著一副鐵手套在盤:觸覺遲鈍、反饋滯后,很難實時感知核桃的微小運動狀態。
而小蓋之所以在春晚舞臺上能完成這一動作,關鍵在兩點:一雙足夠靈活的機械手;更重要的是,還要有一個能做手指關節級微調控制的“大腦”。
在業內,這類能力有個專業名字:手內操作(In-hand Manipulation)。
它是機器人靈巧操作里的“皇冠上的明珠”,直接決定機器人能不能承擔工業級精細任務,例如擰螺絲、釘釘子這類操作。
對此,銀河通用的思路,可以用一句話概括:虛擬世界練招式,真實世界找手感。
- 第一步,仿真打底。AstraBrain里的“小腦模型”,讓機器手在虛擬環境中反復練不同尺寸、不同重量的核桃,靠大規模試錯學出一套可泛化的“盤核桃策略”。
- 第二步,現實校準。真正上手核桃以后,再利用真實摩擦、結構誤差這些反饋,在線微調動作,把仿真和現實之間的那點縫補起來。
值得一提的是,小蓋后面給沈騰遞水時還有個小彩蛋:機器人在遞水的同時,還在盤。

這意味著什么?
意味著它已經能做到:單手手內操作+雙手任務分工協同,而這套能力,已經非常接近真實工位里的操作閉環了。

收玻璃碎片、貨架取物:從“秀技”到“上崗”
接下來呢,就是“智慧腦袋顯身手”的時刻了。
舞臺上一個容易被忽略的細節:在明暗變化的燈光下,機器人要把透明、形狀不規則的酒杯碎片收進盒子里。

這里的難點有兩個:
一方面,透明物體本身就難被機器視覺捕捉;另一方面,不規則碎片在不同光照下,反光和陰影邊緣都在變。
對此,小蓋的做法,是先在仿真中“見遍天下碎玻璃”:
通過生成不同厚度、不同破裂形態、不同光照條件下的海量透明碎片數據,讓機器人在虛擬世界中把各種可能情況都見過一遍。
再結合多模態感知,從極其微弱的反光和陰影里,判斷碎片具體位置,規劃抓取。
同時在接觸過程中,用“觸感”判斷硬度和滑動情況,動態調力度,確保玻璃片既不被捏碎,也不滑落。
這一步,其實已經從展示技巧,跨過了可部署能力的門檻。
再看貨架取物。
這看起來是最普通的動作,但恰恰是最接近真實商業零售場景,也是銀河通用的“傳統藝能”。
這里的核心難點不在抓,而在決策:擁擠環境定位目標、避免擾動鄰近物體,在結構約束下重新規劃動作。
舞臺上有個細節非常漂亮,你看,機器人并非是抓住瓶身,而是牢牢地從瓶蓋位置“扣”住,放在桌上。
![]()
用行業黑話說,就是這affordance找的,真有水平。
而且,這不是預錄軌跡,而是實時決策。每一次扣、每一次傾斜,都在“眼前這一次”重新計算。
這也意味著,這類能力已經從展示層面邁向了真正的操作閉環。
穿烤腸、疊衣服:動作更像人,而不是更像程序
再往后,是穿烤腸、疊衣服這類生活化任務的綜合考試。
在穿烤腸的過程中,機器人需要一手操控烤鉗,一手穿簽并遞送,這對其雙手在空間上的協同能力、力度上的獨立控制,以及動作節奏的匹配都提出了要求。
這里有一個關鍵能力點——靈巧操作中的Tool use(工具使用)。
這項能力直接決定了機器人能否真正進入流水線崗位,因為現實世界的大多數任務,本質上都是“借助工具完成”。
在疊衣服時,需要機器人既要撫平衣角,又要對折對齊,對布料這種“軟家伙”,非常考驗機器人操作的穩定性和細膩度。

這些動作之所以看起來越來越“像人手”,本質原因在于訓練方式發生變化:
小蓋并不完全依賴機器人自身采集數據,而是大量利用人類動作數據進行學習與擴展。
一方面,人類日常行為的數據本身就很豐富;另一方面,通過仿真擴展和學習,機器人可以在處理柔性物體這類場景中,積累出更自然、更穩定的操作經驗。
所以,當它在臺上撫平衣角、對折衣服的時候,本質不是在“放一段預設程序”,而是在實時決策下完成任務,只不過這套決策已經被打磨得很接近人類的“手感”。
而這一連串的技能展示,都離不開小蓋背后的大腦——AstraBrain。
AstraBrain:把“聰明腦袋”長在機器人身上
把復雜的論文語言抹掉,AstraBrain其實可以看成是一個四階段的“具身學習框架”:
- 人類樣本示范-仿真數據合成-強化學習試錯-真機調微操。
![]()
首先,是少量人類示范提供技能種子。
傳統工業機器人,往往需要上千次遙操作數據去堆一個動作。
AstraBrain不這么干,它把人類示范當作“技能種子”:給機器人少量的動作示范軌跡,建立一個可泛化的行為先驗。

接著,是在仿真環境中,通過海量仿真數據模仿學習,覆蓋大量現實中難以窮舉的情況。
現實世界的數據,貴、慢又難采。
因此模型訓練發生在高精度物理仿真環境中,仿真環境自動生成多樣場景配置、隨機擾動光照與物體布局,生成式模型產出抓取動作。
第三步是通過仿真環境的強化學習形成最優策略。
因為僅靠模仿仍難應對精細操作與動態避障,由此,AstraBrain引入強化學習閉環:
機器人在仿真環境中進行高頻試錯,成功避障獲得獎勵,碰撞或失敗受到懲罰。
通過大規模迭代,策略逐漸收斂到高穩定路徑,形成更高效的操作方式。
春晚展示出的流暢控制,很大程度來自這一階段的優化。
第四步,通過真機數據完成遷移校準。
仿真訓練完成后,能力需要落地現實。AstraBrain通過少量真實操作數據進行微調:收集真實接觸與反饋、修正仿真與現實偏差、完成策略校準。
這一步的目的是讓機器人不僅知道“理論上該怎么做”,還知道“以我這副身子骨,動作會被現實世界修正成什么樣”,從而把盤核桃、轉筆這種高接觸靈巧操作,變成穩定可復現的能力。
支撐上述流程的,是銀河通用的數據體系——AstraSynth。
![]()
其結構可以理解為三層:
- 基石層(人類數據):建立任務理解與行為認知。
- 中間層(仿真合成數據):低成本擴展能力邊界,跨越虛實差距。
- 塔尖層(真機數據):用少量高質量數據完成現實校準。
這形成了一條清晰的訓練路徑:
用仿真解決數據規模問題,用強化學習優化動作質量,再用真實環境完成最終閉環。
因此,這套方法并非只針對單一任務。同一能力框架既能用于抓取商品,也能用于盤核桃、疊衣服或工具操作。
從這個角度看,機器人并不是學會某個動作,而是在逐步獲得快速學習新技能的能力。
銀河通用:央視春晚指定具身大模型機器人
銀河通用這次被央視指定為具身大模型機器人登上馬年春晚,并非偶然。
作為中國具身智能模型路線的代表性企業之一,它也是當前少數將模型能力真正落地到真實產業場景的公司。
銀河通用成立于2023年5月,兩年多融資超8億美元,最新一輪融資超3億美元,刷新具身智能行業單輪融資紀錄,估值突破210億元,穩居國內具身智能頭部陣營。
在春晚亮相的背后,是銀河通用已形成硬件-模型-生態的完整閉環:
在硬件層面,Galbot(G1)輪式雙臂本體高效折疊,支持2.4米高摸底觸地,兼顧靈活度與性能迭代;
值得一提的是,銀河通用最新的工業重載機器人Galbot S1也在春晚亮相,與衛星、航母、C919一同作為“國之重器”展出。

從技術路線上來看,銀河通用主打“仿真為主、真機為輔”的虛實結合訓練管線:
自研仿真系統生成百億級機器人干活數據集,破解行業真實數據稀缺難題,實現Sim2Real無縫遷移,這構成了其具身能力擴展的底座。
過去一年,銀河通用密集推出GraspVLA(零樣本抓取)、GroceryVLA(零售大模型)、TrackVLA(動態導航)、NavFoM(全域導航基座)等成果。
由此構建起感知理解-空間推理-執行控制的全棧具身模型體系,春晚亮相的AstraBrain,正是其最新技術成果:
在產業落地層面,銀河通用的版圖已覆蓋工業、零售、倉儲物流、醫療康養等多個領域。
在工業領域,銀河通用已獲得寧德時代、極氪等頭部制造企業千臺級訂單,實現進廠部署。
在零售場景,“銀河太空艙”已落地數100多座城市,自主售賣文創飲料零食。
![]()
在倉儲物流領域,全球首推百臺級機器人7×24小時自主運營零售倉,已穩定運行超一年。
在醫療康養領域,與宣武醫院等三甲機構合作,落地病房、藥房、導診等場景;在2025世界人形機器人運動會中,還以全自主、零遙操作拿下世界冠軍。
這意味著,銀河通用正在把機器人從實驗室,一步步推向日常生活與真實產業,構建起一張完整的具身智能生態網格。
而具身智能的下半場,核心比拼的正是模型能力與生態構建。
回顧剛剛過去的具身智能量產元年,行業格局已迅速收斂:
硬件趨于標準化,真正決定機器人生產力的,具身模型的操作泛化性,將成為真正的勝負手。
中國憑借超大規模市場、豐富應用場景與完整產業鏈,走出了一條“場景牽引、快速迭代、規模應用”的道路。
但毋庸諱言,硬件本體發展快于具身大腦的格局仍未改變。
而銀河通用,恰好站在這一關鍵節點上——
從模型出發,以仿真數據與Sim2Real持續擴展技能邊界,將行業競爭從機械參數推向真實作業能力。
模型能力的追趕與超越,將成為2026年具身領域最關鍵的變量。
機器人春晚十年,中國具身從0到1
最后,說句不太冷的冷知識。
最早上春晚的機器人,不是宇樹去年的《秧bot》、也不是21年的《牛起來》,而是10年前的優必選。
2016年猴年春晚,540臺Alpha 1S組成方陣,整齊起舞為孫楠伴唱《沖向巔峰》,創下“最多機器人同時跳舞”的吉尼斯世界紀錄。
那時,OpenAI剛剛成立,一個月后,AlphaGo戰勝李世石——
AI 3.0曙光初現,西方算法與算力全面領跑,中國AI還在硬件追趕、算法仰望的階段。
十年后,2026馬年春晚,機器人陣容空前——
多家具身智能公司集體登臺亮相,覆蓋舞蹈、運動、干活、陪伴各個場景。
可以說,春晚見證了中國AI從跟跑到并跑領跑的十年躍遷,具身智能作為下一個十年北極星,也正式進入“中國時間”。
這次登臺表演干活的銀河通用,正是對這段路徑的生動注腳:
它向世界展示的不僅是一個企業的技術實力,更是中國具身智能產業的整體轉向:
從攻克運動控制、展示視覺奇觀,轉向解決實際問題、創造經濟與社會價值的新階段。
在億萬觀眾除夕夜的注視下,機器人穩穩盤核桃、取貨遞水,為十年的AI追趕畫上階段性休止符。
下一個十年,具身要干的,是讓這些“會干活的機器人”,走進每個工廠、每個倉庫、每個家庭,從舞臺落地生產線,真正激活萬億產業動能。
![]()
最后的最后,說句題外話。
你說這正月十五,還有節目嗎?
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.