![]()
頭圖|AI生成
過去兩三年,中國自動駕駛的競爭,更多比拼功能推進速度。
誰開得更遠,誰覆蓋城市更多,誰體驗更穩。高速NOA、城市領航、自動泊車,這些功能構成了絕大多數車企的敘事基礎。只要功能能持續上線,競爭就可以繼續。
但這套邏輯正在接近上限。
一方面,主流玩家在功能層面已經逐漸拉齊,差距在縮小;另一方面,越往復雜場景走,系統越依賴整體能力。
復雜場景考驗的,往往不在于“有沒有某個功能”,而在于系統能不能把識別、判斷和動作連續地完成。
這類能力一旦成為主導,單純疊加功能就很難再直接提升整體表現。功能可以一項項補齊,但只要系統還是“磕磕絆絆”,復雜場景里的不穩定就無法根除。
這意味著,自動駕駛的競爭重點,正在轉向系統如何組織能力。數據、算力、工程調優當然都重要,但當系統復雜度繼續上升,它們最終都要服從一個更底層的邏輯:這套能力是如何被組織、調用、迭代的。換句話說,架構開始決定上限。
更直接一點:功能決定的是今天能不能賣,架構決定的是明天還能不能繼續變強。
對理想來說,這個變化尤其關鍵。
過去,理想最強的標簽是產品定義與家庭場景體驗;但一旦進入架構競爭階段,理想就必須證明,自己不只擅長做一臺讓用戶喜歡的車,也能定義下一代自動駕駛系統應該長成什么樣。
MindVLA-o1,就是理想對這場架構之爭的回答。
AI上車后,系統上限卡在哪?
自動駕駛今天面對的,早已不是規則算法的問題。過去幾年,行業主流方案已從規則驅動,逐步轉向端到端、VLM、VLA等AI架構。
2024年,理想推出端到端+VLM雙架構,讓系統第一次具備跨場景、跨任務的統一理解能力。再往后,空間理解、語言理解與行動決策在2025年被進一步收進同一套VLA框架。此次發布的MindVLA-o1,則繼續把自動駕駛向統一基礎模型推進。
![]()
問題在于,架構從規則驅動切到AI驅動,并不意味著系統上限就自動被打開了。
端到端的價值很大,減少了傳統分模塊系統里的信息裁剪、接口損耗和反復調參,讓自動駕駛開始從拼功能走向拼能力。但當場景更復雜、任務更連續時,新的門檻也隨之浮現。
考驗復雜駕駛的,已不只是系統能否識別某個目標、完成一次變道、執行泊車動作,而是它能否在連續變化的現實環境中,把理解、判斷和行動更穩定地連成一體。
也就是說,越往復雜場景走,卡住系統上限的,就越不是單點能力夠不夠,而是現有架構能否繼續往前推進。
即便行業已經進入AI階段,難題也沒有自動消失。
系統如何理解三維物理世界?如何推演未來幾秒的變化?如何把判斷直接轉成穩定動作?長尾場景如何覆蓋?更重的模型又如何部署到車上?
換句話說,今天行業真正碰到的問題,是現有的AI方案,能否繼續向更統一、更強、也更可部署的方向推進。
也正因如此,行業開始把目光從功能系統進一步推向統一架構。MindVLA-o1,正是理想在這個問題上的一次作答。
教AI開車?理想要給車換大腦
那MindVLA-o1架構能解決什么問題?又是如何設計和落地?
理想給出的答案,是先把系統做成一個能統一理解、統一判斷、統一行動的“駕駛大腦”。MindVLA-o1的意義就在這里:把競爭核心再往前推一步,從功能推進到系統,再推進到模型能力。
再往深一層看,它要解決的不僅是“車怎么開”,也是系統能否先建立起對物理世界的穩定理解。對理想來說,這是自動駕駛成立的前提,也決定了這套能力未來有沒有可能走出駕駛本身。
從架構上看,MindVLA-o1沒有把視覺模型、語言模型和軌跡模型先分別做出來,再在后期硬拼到一起,而是試圖從一開始,就把三種模態統一放進同一個原生多模態MoE Transformer里。即便到了VLA階段,空間理解、語言思考與行為生成之間的對齊效率仍然不夠理想。
那么,它到底在解決什么問題?
第一,如何理解物理世界?
很多復雜駕駛場景,難點不在于“看見了什么”,而在于能否理解物體之間的三維關系,例如距離、速度、遮擋關系、動態變化。過去大量的視覺訓練停留在二維層面,能識別語義,卻未必能理解三維結構。
在李想看來,這極其荒謬:“一個人坐在電腦前學著開車,然后再到路上去開車。”
理想這次端出了3D ViT。核心邏輯很簡單:不只讓系統知道物體是什么,還要弄清它在三維空間里究竟處在什么位置。它采用以視覺為核心的三維視覺編碼,借助激光雷達的幾何提示,引導模型去理解真實空間結構,讓語義理解和三維感知在同一套表示里對齊。
![]()
為什么底層的空間認知這么重要?“大部分搞模型的,都想直接做成年以后要做的事,拼命訓練。但0-6歲孩子最重要的訓練空間、訓練能力,根本沒解決。”
李想的比方足夠接地氣:“大部分人只要有小學學歷,就能把車開得非常好,因為做了0-6歲對三維空間的訓練。”
放到自動駕駛上,如果系統連“6歲前”該懂的三維世界都看不明白,底座就是搖晃的,后續再怎么疊加復雜的預測和控制模型,也注定走不遠。
第二,如何面對變化?
駕駛不只是對當前狀態的反應,更要面對持續變化的現實環境:旁車會不會加塞,行人會不會突然橫穿,前車會不會臨時變線。系統面對的不是靜態畫面,而是連續博弈。
理想強調多模態思考,在語言模型承擔語義理解、常識知識和交互能力的基礎上,再引入預測式隱世界模型,在隱空間中推演未來場景變化。核心就是把“看懂現在”,即識別眼前的景象,推進到“推演下一步”,預測接下來會發生什么。
此處還有一個關鍵的要求:駕駛既要“慢思考”,也要“快反應”。復雜場景中,判斷往往要調用常識、語義理解和多步推理能力;但車在路上可等不了慢慢思考,必須立刻做出回應動作。MindVLA-o1能做的,是把這兩種能力統一到一個框架里,讓系統既能理解,又能快速推演。
第三,如何把判斷變成行動?
這也解釋了,為什么理想要盡量把感知、推理和控制放進同一套架構里。過去分模塊系統的問題,并非某個單獨模塊能力低下,而是信息在模塊間傳遞、裁剪、損耗,造成了別扭的局面:局部都對,連起來卻不穩。
在VLA階段,空間理解、推理思考、行動決策已被統一到同一個模型框架中;而MindVLA-o1則通過引入專門的行為專家(Action Expert),從場景、特征、導航和指令等中提取信息,進一步提升對齊效率。
為滿足實時性和精度要求,系統采用了并行解碼,同時生成所有軌跡點,引入離散擴散,多輪迭代優化,確保軌跡符合車輛動力學約束。
這樣一來,模型不僅會思考,更能把這些判斷及時、穩定地轉化成動作。
第四,如何快速學習,快速迭代?
長尾場景不斷出現,只等真實世界的數據覆蓋,即不高效,也不現實。模型不能只從已有的人類駕駛數據里學,還得能在世界模擬器中持續探索、試錯、優化。
為支持大規模模擬與訓練,理想汽車開發了統一的三維高斯潑濺(3D Gaussian Splatting)渲染引擎和分布式訓練框架,渲染速度提升近2倍,整體訓練成本降低約75%。
這種閉環強化學習,推動系統在仿真環境中更快完成策略迭代。
第五,如何把前面的種種設想都落到實處?
很多大模型方案容易卡住的,不是實驗室里做不出來,而是車端跑不起來。模型越重,能力越強,部署越難;為了能跑起來去做過多妥協,又很容易把效果做薄。
理想評估了近2000種模型架構配置,在英偉達Orin與Thor平臺上找到了模型精度與推理延遲的帕累托前沿,大幅提升端側VLA模型的設計與部署效率。
理想強調軟硬件協同設計,本質就是在回答:車端資源有限,統一大模型怎么真正部署。畢竟,算力跟不上,模型再好也難有穩定體驗。
正因如此,MindVLA-o1在技術集合的基礎上,構建了一套完整的能力:先補空間理解,再補未來預判,再把判斷變成穩定行動,同時借助閉環強化學習持續進化,并通過芯片、數據和軟硬件,把這套能力推向量產。
理想認為,未來量產智駕最難的部分,不在于單項能力能否繼續提高,而在于它們能否被系統穩定調用,最后連成一個完整的“駕駛大腦”。
如果這套判斷成立,自動駕駛行業接下來爭奪的,這就不再是誰的功能補得快,而是誰先找到“駕駛大腦”的正確形態。
逼近“駕駛大腦”,理想先走哪一步?
問題在于,自動駕駛走到今天,行業已隱約出現了共識:單靠功能堆疊,很難繼續推高系統能力上限。無論是更強調安全冗余,還是更強調數據驅動和統一神經網絡,近年的演進都說明,各路玩家都在朝更統一的系統能力收斂。
但共識只到這里。
真正的分歧,在于當行業開始從功能競爭轉向架構競爭,究竟應該先解決什么問題、按什么順序搭建能力?不同玩家判斷并不一樣,因此現階段資源投放的側重也有所不同。
有人把重點放在更高的安全邊界和系統可靠性上,盡可能減少復雜現實中的不確定性;有人把重點放在更大規模的數據、訓練和迭代機制上,希望系統在持續學習中,不斷逼近更通用的駕駛能力。
而理想押注的重點,則是先把系統對物理世界的理解補扎實,再把預判、推理和控制盡量收進同一套邏輯里,既不單純增加功能,也不為了更大的系統而拼湊模塊。理想想證明,這套“看懂世界-推演變化-形成動作”的“駕駛大腦”能力框架,能夠穩定地跑在車上。
這些不同優先級的選擇,都在逼近同一個挑戰:駕駛不是瞬時識別,而是連續判斷;不是靜態環境處理,而是動態博弈。想象力在于統一能力的上限,挑戰則在于,統一架構能否在復雜現實中穩定落地。
短期競爭拼局部能力,長期競爭拼系統能否持續增長。誰的路徑更能在復雜場景里保持穩定?誰的能力更能一層層積累?這恰恰是拉開差距的關鍵。
如果往前看,理想提出“自動駕駛只是物理AI的起點”,釋放了一個更大的信號:MindVLA-o1為智駕功能服務只是起點,一套面向物理世界的統一智能基座才是它最終的星辰大海。
這套完整的AI框架,包含四個核心模塊,統一數據引擎MindData、統一模型MindVLA-o1、多模態世界模型MindSim以及強化學習基礎設施RL Infra。這四部分協同形成完整閉環,才是那個真正的“大腦”。
換句話說,自動駕駛在這里既是產品落地場景,也是能力訓練場。今天先解決開車,未來再延展到更廣泛的車載智能,甚至直接復用該模型控制機器人,邁向具身智能。
這個外延今天當然還談不上被驗證,但至少理想已經把自己的位置,從“更強的智駕”往“更通用的物理智能”上挪了一步。
若自動駕駛的核心變成基礎模型能力,行業競爭邏輯也會隨之變化。
競爭焦點會從功能覆蓋轉向模型能力;核心資源會從供應鏈優勢,部分轉向“數據+算力+模型”的組合能力。未來決定車企分層的,不只有產品、制造和渠道,還會多出一條標準:誰能持續訓練和迭代“車的大腦”。
在這個格局里,理想已主動把自己放在了智能體路線的坐標上。
結尾
MindVLA-o1的意義,遠不止一套新的智駕方案。在自動駕駛從功能競爭,走向架構競爭的時間點上,理想更明確地把賭注押向了“統一智能體”。
接下來幾年,行業表面上的差異,仍然會體現在功能體驗、開城節奏以及用戶感知上;但更深層的競爭,正在轉向——誰能把理解、預判和行動更穩定地組織起來,誰能讓系統在復雜現實中持續積累能力。
自動駕駛是個入口,而理想下注的,是更大的方向:一套面向物理世界的統一智能能力。自動駕駛的下一階段,未必馬上分出勝負,但行業已經開始換題了。
過去比的,是誰把功能做得更全;現在比的,是誰先做出“駕駛大腦”;而未來要比的,則是誰先做出真正能夠理解世界、持續成長的統一智能體。
理想這次發布MindVLA-o1,相當于在這個分叉點上提前押注了一個方向。這個方向能否兌現,要靠時間驗證;但至少,它不再是一次普通的功能升級。
本內容由作者授權發布,觀點僅代表作者本人,不代表虎嗅立場。如對本稿件有異議或投訴,請聯系 tougao@huxiu.com。
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4844164.html?f=wyxwapp
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.