美東時間周一,全球科技巨頭英偉達在拉斯維加斯 CES 展會上重磅宣布進軍汽車自動駕駛領域;CEO 黃仁勛親自發聲,正式發布開源推理 VLA(視覺 - 語言 - 動作)模型 Alpamayo,并稱此舉標志著自動駕駛技術迎來 "物理 AI 的 ChatGPT 時刻",為行業安全化、可擴展化發展注入強勁動力。
![]()
作為英偉達布局自動駕駛的核心成果,Alpamayo 平臺憑借類人思維方式處理復雜駕駛場景,為解決長期困擾行業的自動駕駛長尾問題提供了全新路徑。該平臺整合開源模型、仿真框架和數據集三大基礎支柱,構建起完整的開放生態系統,任何汽車開發者或研究團隊均可自由使用。
目前,Alpamayo 1已在 Hugging Face 平臺正式上線。其采用 100 億參數架構,通過視頻輸入生成軌跡并推理軌跡邏輯,清晰呈現每個駕駛決策背后的思考過程,開發者可將其改編為更小的運行時模型用于車輛開發,或作為自動駕駛開發工具的基礎,應用于推理評估器、自動標注系統等場景。
與傳統模型不同,推理 VLA 模型實現了視覺感知、語言理解和動作生成與逐步推理的深度融合。它能將復雜駕駛任務分解為可管理的子問題,以可解釋的形式闡明推理過程,不僅大幅提升了任務執行的準確性,還能對操作進行反思。
在自動駕駛場景中,該模型展現出強大的實用價值,例如接近十字路口時,系統會自主推理:"我看到一個停止標志,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。" 這種類人化的推理能力,讓車輛在交通信號燈故障等意外情況下也能自主 "思考" 解決方案。
值得關注的是,英偉達采取免費開放策略,允許潛在用戶自行對 Alpamayo 模型進行重新訓練。不過該模型并非直接在車內運行,而是作為大規模教師模型,供開發者微調后提取到完整自動駕駛技術棧的骨干中。黃仁勛透露,未來 Alpamayo 家族模型將進一步升級,實現更大參數規模、更詳細推理能力、更多輸入輸出靈活性,并新增商業使用選項。
據悉,首款搭載英偉達相關技術的汽車將于 2026 年第一季度在美國上路,2027 年英偉達還計劃測試無人駕駛出租車服務。
在發布 Alpamayo 平臺的同時,英偉達還同步推出了配套的仿真工具和數據集,完善自動駕駛開發生態。
黃仁勛強調,物理 AI 的 ChatGPT 時刻已到來 —— 機器開始理解、推理并在真實世界中行動。無人出租車是首批受益者。Alpamayo 為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在復雜環境中安全駕駛,并解釋其駕駛決策。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.