AI汽車正在陷入新的同質化競爭:當你發現所有品牌的演示DEMO都差不多時,真正的好架構可能在一場公關辭令中被完全埋沒。技術負責人告訴我,這套秘密武器“起碼領先一年”。
在北京車展鋪天蓋地的AI汽車宣傳中,榮威可能是最讓我困惑的一家。
4月22日,榮威在北京發布了“家越”系列和與字節跳動深度合作的AI汽車技術。臺上講得很熱鬧,“AI原生”“CPP”“Context+Planner+Pixel”一堆新詞往外蹦
發布會第二天,我們關起門來聊了整整一個下午。對面坐著榮威產品負責人錢漾、技術負責人Daniel,還有品牌團隊的Joyce。
“昨天臺上講的,很多人理解不了。”錢漾的開場白很坦誠。
但我更關心的是另一個問題:在2026年的今天,當幾乎所有車企都在高喊“大模型上車”“智能體座艙”,榮威憑什么突圍?
![]()
一、“你們是不是太保守了?”
字節跳動現在至少已經和五六家車企簽了合作,如果只是“接入豆包”,用戶根本感知不到差別。
我第一個問題就很直接:榮威作為字節在汽車行業的第一家深度合作伙伴,按理說應該有首發優勢,為什么發布會上完全感受不到?
榮威產品負責人錢漾的回應是務實的:“家越是榮威的,不是獨立品牌。我不是為極客造車,不是為了在車上發PPT。我是圍繞家庭日常生活,給你舒適和便利。”
這個定位本身沒問題——20萬級別的家用SUV,用戶確實不需要在車上開視頻會議。但問題是,幾乎所有這個價位的車都在說類似的賣點。
“我們也不知道對標誰,”錢漾承認,“感覺在做一件新的事情。”
“新”在哪里?Daniel從技術層面給出了解釋。
最大的差異在于,大多數接入大模型的車企只是“加了一個語音助手”——你說話,它理解,然后執行預設指令,本質上和幾年前的語音控制沒有革命性變化。
但榮威和字節做的這套CPP架構,是讓AI真正具備推理和規劃能力。
我舉了個例子:你告訴車“周三和周六加油站有優惠,油箱合適的時候提醒我”。它不是簡單設置一個鬧鐘,而是會結合你的位置、油量、時間,在你真正需要的時候,用最自然的方式提醒你。
“我們不知道這臺車的AI能干什么,我們只知道它不能干什么,”Daniel說,“正向清單是用戶玩出來的,不是工程師預設的。”
這是AI汽車與智能汽車的本質區別:前者是用戶“養”出來的,后者是工程師“寫”出來的。
但問題也在這里——這種差異,發布會上用PPT講不清楚,必須上車試,而且不是試一兩個小時,得試一周甚至更長時間,AI才能記住你的習慣、學習你的偏好。
在傳播節奏上,慢就是輸。你不在用戶心里種下“榮威的AI不一樣”這個認知,等別人先占了,你就只能跟在后面喊“我也是”。
二、用戶到底會不會用?
第二個問題更扎心——你們做了這么多,用戶真的會用嗎?
現在的車機AI有個通病:看起來什么都能干,實際上用戶除了設置導航和切歌,什么都不會用。
我給他們講了一個真實的場景:很少有人用車機點外賣,因為我的手機上已經有一套完整的支付體系了。如果我跟車機說完,它能直接調用我手機上的豆包完成支付,那才是真正的“打通”。
另一個容易被忽視的難點是:車上有十幾路攝像頭,比手機復雜得多。“我們要解決的不僅僅是語音理解,”Daniel說,“而是讓AI能分清——現在是主駕在說話,還是副駕,還是后排的孩子?每個人的記憶和偏好都不一樣。”
這要求AI具備多模態感知能力,不僅僅是“聽懂”你在說什么,還要“看懂”誰在說、當時是什么場景。
一個典型的場景:后排小孩睡著了,前排父母還在切舞曲。AI如果能通過攝像頭捕捉到小孩的睡眠狀態,主動提醒“后排小朋友睡著了,輕一點”,這才是超越普通“語音助手”的價值。
但這些,單純通過語音交互是做不到的。
三、怎么讓用戶“玩起來”?
“官方跳出來說我做了多少車控、多少場景,沒用的,”我說,“還不如一個真實用戶發一個小視頻。”
我給他們講了個真實案例:我一個朋友和女朋友在微信上爭論一件事,他把截圖發給豆包,讓豆包評理。豆包順著女生的情緒說“他就是不懂你”,女生截圖發給男生。男生雖然知道這可能是情緒價值,但矛盾就這么化解了。
這說明什么?用戶使用AI的方式不是工程師能預設的。他們可能拿它來調解家庭矛盾,也可能拿它來哄小孩,還可能拿它來做一些很奇怪的事情。
“我們就是想做這個!”錢漾展示了一段視頻:車上一個用戶隨口說“我心情不太好”,AI沒有機械地回復“已為您播放輕音樂”,而是用理解身邊朋友情緒的口吻說:“你怎么啦?說來聽聽唄。”
關鍵在于AI的記憶能力。如果你這周心情不好、下周心情好了,它說話的語氣、推薦的音樂風格都會跟著調整。它不是隨機的“幽默”,而是基于對你情緒狀態的持續理解。
“用戶的想象力是需要被激發的,”我說,“你不能指望每個人都玩出花來。你得給一些‘種子場景’——原來還能這么玩,他們才會自己舉一反三。”
專屬優勢:與字節的“聯合定制”
回到一個核心問題:既然字節同時合作了多家車企,榮威憑什么做差異化?
答案藏在“聯合定義”這四個字里——大部分合作是“我用你們的大模型”,榮威和字節的合作是“我們一起打造適合汽車場景的AI架構”。
“字節做基模很牛,但它不懂車,”Daniel說,“一輛車上十幾路攝像頭,指令的延遲要求比手機高得多,有些指令還涉及駕駛安全,不能隨便執行。”
CPP架構的核心是三層設計:C層(Context)負責收集多模態信息——誰在說話、車外是什么環境、車里是什么狀態;P層(Planner)做推理規劃,判斷用戶意圖并制定執行方案;最后的P層(Pixel)是執行層,由車廠把控安全底線。
“我們不知道這臺車的AI能干什么,我們只知道它不能干什么,”Daniel說,“正向清單是無限的,但負面清單是可控的。”
在采訪快結束的時候,我問了一個有點“穿越”的問題:現在你們講AI,跟十年前榮威講“互聯網汽車”有什么本質區別?
錢漾沉默了幾秒,然后說:“十年前我們是把手機的能力搬上車,本質還是你在操作它。但這次,是它開始真正理解你。”
這大概就是AI汽車與智能汽車的本質區別。前者是你“養”出來的,后者是你“用”出來的。
錢漾透露,今年7月左右,搭載這套系統的首款車型就會上市。“我們希望能夠讓用戶自己玩起來,而不是我們告訴他應該怎么玩。”
對于汽車行業來說,這可能意味著一個轉折點:當AI足夠聰明時,產品的核心競爭力不再是廠商預設了多少功能,而是用戶能“玩”出多少可能性。
就像沒人教過你用豆包解決家庭矛盾,你自己就發現了。未來的AI汽車,也會出現類似的“非說明書式場景”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.