隨著座艙屏幕數量和算力趨近用戶感知上限,智能座艙的競爭焦點正由硬件堆疊轉向智能體驗。真正的變革在于座艙系統能否成為貼心伙伴——不僅能聽懂指令,更能理解意圖;不僅能識別環境,更能洞察場景;不僅能執行操作,更具情感共鳴與主動服務能力。
NVIDIA TensorRT Edge-LLM 是專為邊緣端大模型部署打造的輕量級推理框架,面向智能汽車等實時端側應用場景。
NVIDIA 在 GPU 計算領域深耕多年,依托 CUDA、TensorRT 等核心技術構建了成熟的 AI 開發生態,已成為業界事實標準。此次開源 TensorRT Edge-LLM,正是將這一生態優勢向邊緣端延伸的重要舉措。
中科創達的創新實踐
基于 NVIDIA TensorRT Edge-LLM 的
多模態 AI 服務架構
TensorRT Edge-LLM 為車載邊緣 AI 提供了高性能、輕量化、純 C++ 的推理運行時,是構建車規級推理系統的重要基礎。基于該運行時,中科創達進一步構建了面向座艙業務的多模態 AI 服務架構,將底層推理能力封裝為可調度、可擴展的系統服務。
![]()
注:MoE 模塊將在后續版本中引入
該架構具有統一的 AI 服務接口、支持跨 SoC 平臺的快速適配、面向業務負載的推理任務調度和優化的特點。
案例 A:重構 AI 座艙交互
基于 NVIDIA DRIVE AGX Orin 的
端側算力與優化視覺大模型融合實踐
基于 DRIVE Orin 平臺,中科創達與某頭部車企攜手,成功打造并全球首發了新一代 AI 座艙。其核心成果在于:充分利用 DRIVE Orin 平臺的極致 AI 算力,深度融合經中科創達深度優化的本地 Qwen2.5-VL-7B 視覺大模型,真正兌現了“AI 座艙”的感知與決策能力,并將關鍵 AI 場景的端到端推理延遲降至業界領先水平,為用戶帶來顛覆性的瞬時響應體驗。
案例 B:面向下一代車載自然交互的
端側大模型記憶實踐
中科創達與某全球頭部車企合作的 Innovation Project 中,在車規級高性能 AI 算力底座上,部署并深度優化了 Qwen3-VL-4B 視覺語言模型,使其滿足車載環境的苛刻要求。基于此,成功實現了“長聆聽”(Long-Context Listening)與“端側主動記憶”(On-Device Proactive Memory)兩大原型功能,為探索無界面的自然交互奠定了基礎。
核心價值
面向未來,雙方將合作聚焦于三個維度:基于量產數據和用戶反饋持續優化 DRIVE 平臺上的性能表現;共同開發支持個性化服務與座艙 AI Agent 框架;為車企提供從模型選型、量化優化到 Agent 部署集成的完整工具鏈與參考框架,助力打造可持續進化的 AI 定義座艙。中科創達非常期待通過 NVIDIA 開放的底層能力與中科創達成熟的集成經驗,與更多開發者共同創建創新可靠的智能汽車軟件生態,真正實現從功能定義到 AI 定義的范式變革。
以上為摘要內容,訪問鏈接閱讀原文:https://blogs.nvidia.cn/blog/nvidia-thundersoft-smart-cockpit-ai-defined-era/
*本文中圖片由中科創達提供,如果您有任何疑問或需要使用圖片,請聯系中科創達。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.