編輯部 整理自 MEET2026量子位 | 公眾號 QbitAI
從大模型智能的“語言世界”邁向具身智能的“物理世界”,仿真正在成為連接落地的底層基礎設施。
在本次量子位MEET2026智能未來大會上,光輪智能聯合創始人兼總裁楊海波給出了他的觀察:
具身智能的規模遠大于文本與視覺模型,因為數據維度更真實、更復雜。
這也就意味著,具身智能時代的核心,不是算法本身,而是它所依賴的數據是否有效、可擴展——仿真是唯一能夠解決數據問題的方案。
在仿真策略的路上,會遇到仿真不真實、Sim2Real不可靠等行業痛點,光輪智能正在通過自研的一整套“測量、生成、求解”仿真基礎設施來解決這些問題,為具身智能提供數據、訓練、評測的全流程解決方案。
![]()
另外楊海波還進一步指出,仿真不是孤立的技術工具,需要以真實產業需求為錨點,通過應用場景構建生態。
其中,具身仿真資產制作是生態的源頭活水,依托自動化物理測量與生成技術,產出高物理真實的規范化數據資產,為具身訓練提供核心燃料;大規模RL訓練則通過并行的虛擬場景讓智能體高效試錯學習,將數據價值轉化為具身實際技能,同時反向打磨仿真引擎的算力與精度;具身智能仿真評測則以標準化任務樹立具身行業訓練標尺,推動數據與訓練體系持續迭代。
三者環環相扣、互相賦能,讓仿真從技術突破走向產業賦能,成為支撐具身智能規模化發展的基礎設施。
在此基礎上,光輪智能建立了全球最大的遙操數據采集工廠大規模RL訓練平臺LW-BenchHub行業首個工業級機器人評測平臺RoboFinals,協同組成全棧仿真平臺,為具身智能從實驗室走向真實世界提供關鍵跳板。
為了完整呈現楊海波的思考,在不改變原意的基礎上,量子位對演講內容進行了整理編輯,希望能提供新的視角與洞察。
MEET2026智能未來大會是由量子位主辦的行業峰會,近30位產業代表與會討論。線下參會觀眾近1500人,線上直播觀眾350萬+,獲得了主流媒體的廣泛關注與報道。
核心觀點梳理
- 光輪智能在業界以仿真合成數據被大家所熟知,而支撐這套數據體系的底層是我們全棧自研的仿真基礎設施。這套基礎設施也是未來支撐世界模型及物理AI落地的關鍵。
- 為什么傳統仿真的Sim2Real總是失效?主要有三方面:物理不夠真實、資產視覺失真、交互行為不準確。
- 光輪智能全棧自研了“測量、生成、求解”三位一體仿真解決方案。實際去自動化物理測量真實世界,而不再依賴猜測和經驗,并在仿真下進行視覺、物理交互、動作等與真實測量對齊的生成,從而縮小Sim2Real gap。
- 沒有好的生態支撐,仿真平臺無法持續發展。真正好的仿真平臺從來都不是獨立的,而是需要生態構建,需要海量的使用場景來驗證和優化,也需要持續的商業回報來加強技術投入。
- 光輪智能從一開始就聚焦于打造仿真領域的“爆品應用”,包括仿真遙操數采、大規模仿真強化學習訓練平臺LW-BenchHub、為具身前沿模型打造的行業評測標準RoboFinals。
以下為楊海波演講全文:
具身智能與世界模型的“數據機會”比大模型及智駕大千倍
和大家分享一下我們在做的事情。
光輪智能被大家熟知更多的是仿真合成數據,今天分享的是支持這套數據體系的底層系統,自研的仿真基礎設施。
我們在這套基礎上做了很多開發和演進,我們認為這也是支持世界模型包括物理AI落地的關鍵。
簡單介紹一下公司,我們底層依托仿真推進AI進入物理世界,公司產品包括服務具身和世界模型的仿真合成數據,包括評測和Sim2Real的部署。
2023年成立,商業化進展比較快,我們幾乎服務了所有具身和世界模型的頭部客戶,包括了英偉達、DeepMind、Figure AI等美國的一些具身和世界模型,包括國內字節、阿里,還包括一些場景方,包括TOYOTA、吉利,利用我們的數據,我們把本體真正的Sim2Real落地到工廠當中。
我們和學術界也有很好的合作,上個月自研的仿真工作流成為Hugging Face官方指定的仿真環境。
我們認為,具身世界模型的數據機會將會是大語言模型的1000倍。
原因在于兩個維度,首先智駕是視覺游戲,唯一的物理交互只有車輛和地面的動力學,而具身與之不同,具身需要實現力的反饋、邏輯電路和阻尼等多維度,數據也更加復雜,比如說,當我進入家中、拉開冰箱的門,需要實現有力的反饋,這樣就多了一個維度,數據也更加復雜。
![]()
另一方面,從預訓練數據角度來說具身有很多機會,大語言模型包括智駕在內,其實預訓練數據都是現存的,大語言模型消耗幾十年來互聯網上沉淀的數據,自動駕駛也需要不斷地傳回數據。
目前大家做的預訓練更多的是對數據的收集、處理、加工、標注、篩選等,但具身是沒有本體在跑的,這里有巨大的預訓練需求。
真機數據還面臨著成本高昂、易壞、人力維護等問題,特別是它的場景比較單一,我也曾多次提過,它存在Real2Real的差距,比如我們自主搭建的“真實廚房”場景,和現實世界的廚房在細節和形態上仍有很大差距。現實里大量長尾情況在搭建場景中往往缺失,這些差距很難補齊。
要解決這一切,我們認為依靠仿真是一個有效的辦法。
至于為什么過去的仿真會失效呢?我覺得主要是三個方面。
第一個是物理不夠真實,物理的理論模型包括參數,都靠猜測或者經驗,力的系數也不準確,視覺沒有做到足夠真實,比如材質、紋理、光照,要不特別精細造成工程化難度,要不無法支持視覺的需求。
另外一個則是交互不準確,舉個例子,當我們進入房間打開燈的同時,既要聽到聲音有響動又要看到燈光亮起來。再比如開冰箱門,動作也不是“物理上把門推開”這么簡單,而是要克服門邊磁吸的吸附力才能打開——這種交互關系如果沒建對,仿真就會偏差很大。
這樣下來,就導致仿真和真實世界之間存在巨大的差異,從而影響真實環境的部署,成功率也從理論上的100%降至5%。
那么如何解決這個問題呢?
光輪智能自研“測量、生成、求解”三位一體的仿真平臺
我們自研了一套“測量、生成、求解”三位一體解決方案,建造了一座“虛實對標物理測量工廠”,而不再依賴猜測和經驗。
![]()
自研的核心是一整套生成系統,包括資產、場景、力的對齊,當中需要和真實世界100%對齊,例如力的反饋、力的大小等,解析用的是全自研GPU的Solver,它確保生成成功后, Sim2Real能夠足夠真實。
前面提到傳統仿真依賴猜測和經驗,我們自研測量設備,實現自動化物理測量,真實對標物理世界打造仿真工廠
測量之后則是生成,當中最關鍵的是資產和場景,需要同時滿足視覺真實和物理真實,并覆蓋鋼體、鉸鏈、流體、可形變物體等,其中流體會像蛋糕奶油或水一樣緩慢流下來,可形變物體如線纜,覆蓋了工業、居家等各種場景。
我們在全球范圍內定義了這部分的行業標準,主流的廠商都在follow我們的規范,這個規范叫LW-Ready,不僅是物理上的Ready,也包括服務遙操的Ready,和RL的Ready。
過去這方面很混亂,大家在仿真中用X代表橫還是Y代表橫都不一致,現在光輪統一和規范了市場。
以下是我們仿真的幾個案例:
第一個是工業的門,第二個是醫療場景下的臟器,其脆度、柔度要符合真實世界,第三個是香腸,不僅可以視覺看到,還可以從不同的角度切開它,而且這個力也對應真實世界的分布。
最后一個是草莓,這是服務于我們的農業客戶,仿真下可以用相應的力把草莓摘下來,力大了就拽斷,力小了就拽不下來,完全對齊真實世界的規范。
![]()
這是線纜,線纜是一個圣杯級的難題,可以看到曲度變化插拔接口的效果,不同力度都能實現準確的仿真,這幫我們贏得很多工業級客戶,剛才提及的進入場景的客戶,很多也都看到了我們在線纜上的一個重要突破。
![]()
這是廚房場景,隨著卷簾拉動,卷簾會隨著真實變化轉動,同時不僅卷簾本身變化,窗外光影也會隨著卷簾變化而變化,符合真實世界光影。
![]()
介紹完仿真場景之后,我們介紹高保真的力學仿真,因為要具備符合真實世界的資產和場景,就需要在仿真下實現準確的力學生成
我們的資產場景是彩色電影,其他仿真器是黑白電視機,無法實現我們的資產場景,因此我們在力學上做了很多工作,確保實現資產的效果。
通過力學參數設計保證磁吸、阻尼、開門等工作,同時保證力學方向屬性的對標。利用不同參數的調試,讓門對應不同的力完成開合。
生成仿真場景之后,需要在場景內構建準確的機器人基礎模型,才能真正在仿真世界中采集數據、訓練。而想要構建準確的機器人基礎模型,參數辨識必不可少。
參數辨識,就是指有了資產場景和力的生成后,仿真的機器人跟物理世界的機器人對齊包括控制器參數、鋼度、阻尼、物理屬性、摩擦模型、質量分布,還包括執行器特征、速度、力矩,以及時序對齊、控制頻率、系統延時等等,都要和真實世界進行對齊。
只有這些參數辨識準確了,仿真機器人和真實機器人在接到相同的控制信號之后才能產生一致的行為和動作,包括軌跡、時序和動力等,彌合Sim2Real Gap,確保在仿真中訓練的策略能可靠地遷移到真實硬件上,減少部署失敗率。
這里Demo左邊是沒有對齊的情況,陰影是仿真效果,右邊是對齊的。
![]()
自研仿真的最后一步是求解,這是仿真的心臟,需要運用深度的計算物理、數值分析、剛體動力學、接觸力學、約束求解等多個領域的知識,還需要千萬級自由度實時求解,確保數值穩定性和計算效率的平衡,每個環節都充滿挑戰。
![]()
我們的Solver是全棧自研的GPU Solver,可以支持百萬級自由度的求解,實現剛體、流體、球體多物理場的耦合,物理精度達到亞毫米級,更新頻率達到千赫茲。
我們這套引擎還能支持對機器人任務進行優化,在接觸力計算、抓取模型、行走穩定性等關鍵環節都有獨特的算法創新,確保可以服務到具身的需求。
生態支撐和商業化加速落地,RoboFinals成為領先的模型評測標準,持續推動仿真平臺發展壯大
在攻克很多技術難題后,我們清晰認識到沒有好的生態支撐,仿真平臺就無法持續發展,就像安卓生態的發展離不開微信、美團、滴滴這些APP。
仿真平臺之間不是獨立的,需要進行生態構建,需要海量的使用場景驗證優化,也需要持續的商業回報加強技術投入。
過去很多企業沒能做好仿真,其中一個原因就是沒有找到爆款應用支撐持續演進,我們從Day 1就開始設計這種生態上的爆款應用,第一個是仿真遙操數據,第二個是大規模的RL訓練,第三個就是具身的仿真評測。
第一個應用是我們全球最大的仿真遙操采集工廠,同時我們在東南亞也有基地,我們自研的這套框架和硬件,包含不同采集方式,包括6D鼠標、AR、VR等,運用自動化質檢、標注以確保數據的質量。
對于這樣一套服務國內外最頂級客戶的產線,無論是世界模型公司還是具身公司,大家最在意和關注的還是物理交互真實世界的底層設計。
第二個應用是大規模RL系統平臺LW-BenchHub,可以在高仿真環境中開展大規模RL訓練,同時運行成千上萬的并行仿真實例。
![]()
每個實例都會嘗試不同的抓取策略和力控參數,虛擬環節中的零件也可以無限復制,即使出現碰撞,也不會造成任何損失,機器人還能24小時不間斷工作,這都是真機環境中無法實現的,
訓練平臺上還可以自動生成極端、長尾的場景,包括位置偏差、表面污漬、輕微形變,都可以增強機器人的魯棒性。
第三個是我們剛剛發布的RoboFinals。
現階段全球頂尖的AI Lab都在面臨相同的困境:模型已經超過所有學術基準,無法真正評估它們的真實能力,衡量技術與前沿水平的差距。
而這套RoboFinals涉及一百項工業級任務,涵蓋家居、工廠、零售等真實場景,支持跨機器人、跨仿真器的統一評測,為行業提供標準化度量工具。
目前RoboFinals評測平臺已經成為全球使用頻次最高的仿真應用之一,這也是業內首個針對前沿機器人模型的工業級平臺,非常逼真,其中各項場景任務都是基于真實需求完成的設計,還有大量的泛化過程確保場景足夠多樣。
以上就是公司全棧仿真平臺介紹,我們希望自研的這套仿真平臺可以把復雜的物理世界抽象成可以使用的工作能力,本質上是構建一個數字平行的宇宙,讓更多團隊可以精力集中在本體或者任務設計上。
而做好仿真,一直都是實驗室工作轉變為行業基礎設施的必經過程。
未來我們希望和上下游伙伴,包括算力、世界模型公司、具身公司以及各行各業應用方協同,把自研的仿真底座打磨得更穩、更準和更易用,用扎實的能力支持具身產業的長期發展,驅動機器人邁向通用的人工智能時代,謝謝大家!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.