點擊上面↑“電動知家”關注,記得加☆“星標”!
電動知家消息,2026年1月9日,特斯拉AI負責人阿肖克?埃勒斯瓦米確認,FSD v14.2版本已提前集成部分AI推理功能。該系統現已能夠應對施工路段動態調整路線、智能選擇停車位等復雜場景。此次突破使特斯拉向“有感知的自動駕駛”目標邁出關鍵一步。馬斯克曾預言,到v14.3版本,車輛將給人“幾乎擁有自我意識”的體驗。
![]()
FSD v14.2版本的升級標志著特斯拉自動駕駛技術架構的根本性轉變。與傳統依賴硬編碼規則的自動駕駛系統不同,新系統采用端到端神經網絡架構,取代了超過30萬行C++代碼。特斯拉通過引入中間推理token,使模型不僅能輸出行動指令,還能生成內部“推理片段”,顯著提升系統決策的透明度和可解釋性。這些推理標記包括全景分割、3D占據、三維高斯表示和語言標記。最新推出的FSD v14.2.2.2版本已展現初步的“有感知”元素,能夠理解環境上下文并做出多步驟決策。例如系統可以判斷閘門是否會開啟,若超時或失敗會自動執行替代方案。
新系統的推理能力在復雜場景中表現尤為突出。在“閘門管理”情境下,車輛不僅能識別閘門,還能判斷其開啟可能性,并基于內部狀態機做出通過或尋找替代路徑的決策。FSD v14還展示了處理“得來速”等多階段任務的能力。系統能夠依次完成點餐、付款、取餐等環節,并在每一步等待乘客完成相應動作后再繼續行駛。在個性化交互方面,車輛能夠與乘客進行自然語言對話,理解諸如“為什么不走四街?”等詢問,并記錄用戶偏好以優化未來路線選擇。這種交互基于特斯拉專門為車載環境調優的大語言模型。
FSD v14的推理架構由兩個高度集成的AI子系統構成。行動AI負責所有駕駛操作,運行頻率高達36Hz,每秒評估并更新駕駛決策36次。它接收傳感器輸入、路線信息及歷史推理數據,輸出轉向、加速和制動指令。交互AI則作為人車交互的橋梁,基于大語言模型技術處理自然語言輸入。這一系統可能是特斯拉旗下xAI的Grok模型的變體,專為車載交互場景優化。兩個子系統協同工作形成推理閉環,使車輛能夠將人類意圖轉化為自動駕駛動作,實現持續的環境適應與行為優化。
特斯拉的長期目標是統一FSD與Optimus人形機器人的AI架構,共享感知、推理與控制的通用智能底座。兩者均基于視覺的AI系統,使用攝像頭作為主要傳感器,并生成動作控制指令。隨著推理能力的增強,特斯拉正在構建一個統一的具身智能框架,使機器能夠在物理世界中實現感知、決策與行動的高度一致。FSD v14是這一演進過程中的關鍵里程碑。
馬斯克表示,更多的推理功能將在2026年第一季度陸續推送,使系統進一步向“有感知的智能體”目標靠近隨著FSD v14.2版本開始推送,特斯拉車主將體驗到更接近人類決策風格的自動駕駛行為。系統在施工路段繞行、自動泊車等場景中已能做出上下文相關決策。特斯拉從基于規則驅動向推理驅動的轉變,標志著自動駕駛技術正從單純感知響應邁向具備情境意識的認知階段。這一轉變不僅影響駕駛體驗,更將重新定義人車關系與交通出行未來。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.