![]()
AI 上車不缺口號,缺的是一條從模型到量產的完整通路。
作者|靖宇
今天在北京車展上爆火的極氪8X,有網友放出了一段新車演示視頻,用戶坐在車里說了一句「帶我去接孩子放學,順便找一家麥當勞,5 點前我要到學校」。
接下來發生的事情,和你過去對「智能汽車」的認知完全不同。車輛自主規劃路線,啟動智能駕駛,中途停靠麥當勞,到達學校門口自動泊車。整個過程,用戶不需要碰導航、手動切換智駕模式、或者在停車場里找車位。
這不是一個語音助手在幫你搜索,而是一個 Agent 在替你執行。
在這個炫酷演示的背后,需要的不是「在車里接入一個聰明的大模型」,而是一套從「大腦」到「四肢」都打通的整車智能體系統。
AI 上車喊了三年。為什么到今天,我們才開始看到這樣的產品?
01
從 ChatBot 到「AI 上車」
回頭看這兩年的「大模型上車」熱潮,一個尷尬的事實是——大模型進了車,但并沒有真正變成車的一部分。
2024 年到 2025 年,幾乎所有車企都宣布接入了大模型。DeepSeek、千問、豆包,各家輪番登場,座艙語音助手確實變聰明了不少。它能陪你聊天,能查百科,做得好的把車輛手冊灌進去了,可以告訴你「輪胎壓報警怎么辦」。
但最終,這還是一個跑在座艙里的對話機器人。
語音助手管不了方向盤,智駕系統也不知道你剛才跟車機聊了什么。就像給一個人裝了一顆聰明的大腦,但大腦和手腳之間沒有神經連接。智駕技術有自己的演進路線——從規則駕駛到 BEV+Transformer,到端到端,再到 VLA+世界模型——但這條路和座艙智能完全是兩條平行線。
這種割裂不是因為沒人想解決,而是確實難。
第一個挑戰是模型本身。行業主流做法,是拿一個通用大語言模型,再用智駕數據做后訓練。這種「拼接式」路徑能讓模型聊天,但不能讓它真正理解物理世界——它不懂交警手勢意味著什么,不懂復雜路口里行人和車輛的博弈邏輯。想走向 L4,模型需要從預訓練階段就具備對物理世界的理解,而不是事后「補課」。
第二個挑戰是架構。智駕和智艙是兩套系統、兩顆芯片、兩個團隊。要實現「一句話調動全車」,整車架構需要從底層重構——感知、決策、交互,得統一在同一個模型體系下。
第三個挑戰是量產。從 PPT 到量產車之間,隔著芯片適配、車規安全、成本控制和 OTA 迭代,拼湊式的合作模式很難高效跑通這個閉環。
也就是說,真正的 AI 汽車,需要的不是在車里放一個聰明的大模型,而是用 AI 重寫汽車的底層邏輯。
02
誰有更好的答案?
2026 年北京車展前夕,幾乎所有廠商都在喊「AI 汽車」。但仔細看各家的方案,你會發現它們解決的是不同層面的問題。
智己和阿里合作的 IM AIOS 生態座艙,強項在于把阿里的生態服務——餓了么、高德、支付寶——以 Agent 的形式搬進了車里。用戶用自然語言就能點外賣、訂餐廳,體驗確實新鮮。但它的核心聚焦在座艙服務層,不涉及智駕融合。
字節的豆包大模型接入了別克至境、榮威等多個品牌的座艙,主要提升語音交互的智能度。這屬于「模型即服務」的輕量合作——模型公司提供 API,車企在座艙里調用,各自邊界清晰。
這些方案各有價值,但有一個共同點——模型和車之間,是 API 接入的關系,不是從底層融合的關系。
4 月 22 日,階躍星辰與千里科技宣布達成全面戰略合作,雙方將聯合共建「原生智駕基座模型」。這個合作的打法,和上面幾種方案走的是一條完全不同的路。
核心差異在于「原生強耦合」。
傳統路徑是「先做一個通用大模型,再拿到車上做適配」。階躍和千里的做法是反過來——從基礎模型的預訓練階段,就同時注入通識數據和智駕數據,讓模型原生具備對物理世界的理解能力。不是把一個通用大腦塞進車里,而是從頭培養一個「懂開車」的大腦。
階躍星辰的技術底座撐得住這件事。作為國內知名的基模公司,階躍圍繞「AI+終端」戰略,構建了一套完整的技術體系。面向 Agent 場景的旗艦基座模型 Step 3.5 Flash,發布以來在 OpenRouter 調用量登頂全球第一,成為全球開發者構建智能體的首選模型之一。
在多模態領域,階躍擁有國內最全的自研模型矩陣——語音交互、音頻推理、圖像理解、圖像生成、視覺語言模型,覆蓋了汽車場景從「聽」到「看」到「說」的全鏈路感知需求。在部署層面,階躍構建了從 1B 到 200B 參數的端云協同模型體系——端側輕量模型負責實時感知和快速執行,云側大模型負責復雜場景的推理和決策,形成類似人類大腦「快思考+慢思考」的分層架構。
千里科技則補上了另一半——全棧工程能力。
![]()
雙方的合作不是簡單的商務結盟,而是對「AI 原生汽車」同一終局的共同押注。技術架構對齊,產品愿景對齊,從模型設計,到終端部署形成完整閉環。
有人把這稱為最符合「Grok + FSD」敘事的中國組合——特斯拉用 Grok 大模型,和 FSD 智駕的原生融合定義了 AI 汽車的標桿,而階躍 × 千里,是目前中國最接近這一模式的搭配。
值得注意的是,階躍的生態拼圖還在持續補全。
4 月 23 日,階躍星辰與騰訊云達成戰略合作,雙方將圍繞智能座艙展開深度協作。騰訊在音樂、視頻、地圖、支付等領域的生態矩陣,將通過智能座艙 Agent 與用戶連接——基于個性化偏好做內容推薦,打通從需求識別到交易完成的車內服務閉環。
如果說階躍+千里解決的是「大腦+四肢」的問題,騰訊云的加入則補上了「生態服務層」,讓這個智能體不僅會開車,還能幫你點歌、導航、付費。
03
真正的「AI 汽車」,要來了
而極氪 8X,是階躍和千里「Grok + FSD」模式下最新的量產標桿。
Step 3.5 Flash 從全面開源到正式上車,只用了 40 多天——這個速度本身就說明了原生強耦合模式在工程效率上的優勢。
極氪 8X 首發搭載的超級 Eva 整車智能體,實現了大模型與智駕、底盤、動力的原生融合。基于階躍最強語音模型,Eva 具備情緒理解和思辨能力,語音自然且富有感情;基于視覺理解模型,Eva 能看到車周圍的環境并做出判斷——路況、車位、周邊商鋪,都在它的感知范圍內。
4 月 17 日極氪 8X 正式上市,29 分鐘大定突破 10,000 臺——市場在用腳投票。
兩年前,大模型剛上車的時候,它能做的最多是幫你查一下附近的麥當勞在哪里。今天,它能替你規劃路線、開車、停車、點餐,全程只需要一句話。
這個變化的背后,不是某個模型變強了,而是模型和汽車的關系從根本上變了——從「外掛 App」變成了「原生大腦」。
當 AI 真正成為汽車的底座而不是配件,駕駛體驗的變革,才剛剛開始。
*頭圖來源:階躍星辰
本文為極客公園原創文章,轉載請聯系極客君微信 geekparkGO
極客一問
你覺得現在的車載語音助手,
和真正的「AI 汽車」之間,還差幾步?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.