5 小時變成 2 分鐘。
這是理想汽車一顆零件的 PPAP 審核時間在過去這段時間里發生的變化。
PPAP 是生產件批準程序的簡稱。供應商在量產前要提交一整套材料,向主機廠證明自己已經具備穩定、持續交付合格零部件的能力。一顆零件后面,往往有幾十份資料;一輛車背后,是成千上萬顆零件和密集聯動的文件體系。這是汽車供應鏈里最不容易被繞過、也最不容易被加速的環節之一。
5 小時是熟練 SQE 工程師審一份資料的速度,這已經是相當高效的水平了。而當同樣的工作被壓縮到 2 分鐘時,意味著原來必須由人來做的判斷,現在大部分可以交給機器。
完成這件事的,是一套叫做 PPAP Audit Agent 的 AI 智能體。目前,它已經在 290 個供應商項目里投入運行了。
![]()
其背后的算力載體是聯想 ThinkStation PGX,一臺桌面級、可以放進任何一家供應商車間的本地 AI 超算。
![]()
供應鏈質量審核不直接面向消費者,但它決定了一輛車能不能按時下線、按質交付。截至 2026 年 3 月底,理想汽車歷史累計交付突破 163 萬輛。當規模膨脹到這個量級,傳統的人工 PPAP 審核體系在物理上已經遠遠跟不上節奏了。
撐起一個零件的審核閉環
PPAP 審核時間的壓縮,表面看是效率提升,其實是把高度依賴人工經驗的工作,轉化為可以被 AI 系統化執行的流程。
這恰好是 AI 智能體擅長的那類活。
它面對的是海量、多格式、強關聯的資料,審核過程又依賴清晰的工程規則和固定的檢查路徑。智能體可以在多份文件之間建立關聯,按既定規則連續推進審核流程,并把結果直接反饋到具體問題點上。
PPAP 之于汽車供應鏈,正如 KYC 之于金融業的信貸開戶,看似常規,實則決定下游一切動作能不能啟動。這種“閘門”任務一旦由人變成機器,整條鏈路的等待時間會跟著縮短。
當然,能不能把資料審明白,只是邁出了第一步。真正到了車間里,事情馬上就復雜起來。系統能不能穩定跑起來、接入真實流程,能不能在本地處理那些上不了云的敏感數據,這些才決定它到底能不能用起來。
對理想來說,PPAP 智能體要真正部署到每一家供應商的車間里去,靠的是一整套貼近現場的交付能力。
![]()
而選擇聯想工作站,正是依托其覆蓋全國的售后網絡與市場領先地位。據IDC FY25 Q4數據,聯想ThinkStation以47.3%銷量占比、53.8%營收占比穩居中國塔式工作站市場第一。其2400+服務中心、100%覆蓋全國,可快速響應各地工廠,保障PPAP智能體穩定運行。
而分散的供應商、網絡與數據高安全要求下,唯有把AI能力下沉到本地,才能在不打亂原有節奏的前提下,把 PPAP 嵌入場景。這意味著,承載這套智能體的設備必須滿足幾項條件:能夠在本地穩定推理,支持 7×24 小時連續運行,部署門檻足夠低,且不能給工廠額外增加過多改造成本。
聯想 ThinkStation PGX 所撐起的,正是這部分關鍵的落地能力。
聯想 ThinkStation PGX 是一款專為完整構建和運行 AI 而設計的新型超級計算機。它搭載基于 NVIDIA Grace Blackwell 架構的 NVIDIA GB10Grace Blackwell超級芯片,在 FP4 精度下可提供高達 1 petaFLOP 的 AI 性能。借助 128GB 統一內存,開發人員可以對來自 DeepSeek、Meta、Google 等的下一代推理模型進行試驗、微調或推理,支持的模型規模最高可達 200B 參數。換句話說,一臺桌面級設備能裝下原本只在數據中心里跑得動的模型。
![]()
在此基礎上,聯想 ThinkStation PGX 進一步把大模型能力延伸到本地開發與實時應用場景。它能夠在本地實時運行理想自研的 27B 大模型,同時支持多個智能體并行推理。借助 NVIDIA ConnectX 網絡,兩臺聯想 ThinkStation PGX 還可以互聯擴展內存和算力,從而支持對多達 405B 參數模型的推理。
它的整機體積非常小,投影面積比 iPad mini 還小,整機重量只有 1.2kg。不需要額外機房,也不依賴復雜的基礎設施改造,進入供應商現場后即可直接部署。
對理想來說,這意味著 PPAP Audit Agent 不必等供應商先經歷一輪漫長的數字化改造,就能直接進入真實業務場景。對供應商來說,第一次接入 AI 工具,整體門檻也更低。
設備放得下、運行穩,才有機會真正進入產線和質量體系,成為日常業務的一部分。
![]()
根據麥肯錫 2024 年發布的研究估算,中國工業自動化市場規模已超過 2500 億元,占全球三分之一以上。IDC 此前發布的數據則顯示,全球工業 AI 質檢市場 2025 年接近 10 億美元,復合增長率 28.5%。
市場起步不久,真正能在工廠里能跑起來落地應用的 AI 還很有限,但聯想 ThinkStation PGX 或許已經幫助理想抓住了關鍵。
撐起一臺設備的擴展空間
今天這臺聯想 ThinkStation PGX跑的是 PPAP 審核智能體,解決的是量產前最費人、最費時間的文件審核。
![]()
往后呢?質量策劃、過程審核這些能力,也可以繼續往同一套邊緣底座上疊加。對理想來說,這讓 AI 更容易沿著供應鏈一路鋪開。對供應商來說,更現實的價值在于,前期投入不會因為場景繼續擴展就很快過時。同一臺設備,可以先跑通一個場景,再在此基礎上不斷疊加新能力。它在工廠里擔的角色,也就不再只是解決單一問題的工具,而是一塊持續生長的 AI 地基。
一臺設備能同時“養活”多個智能體,本來就是 NVIDIA Grace Blackwell 架構的設計目標之一,也是聯想 PGX 跟通用工作站不一樣的地方。
Blackwell 架構為本地智能體提供的價值,首先體現在 AI 推理鏈路的底層加速上。其第五代 Tensor Core 與新一代 Transformer 模型對矩陣運算、注意力計算和低精度推理進行了專門優化,能夠更好地支撐多輪對話、長上下文處理、代碼生成與多模態生成等高密度 AI 負載。
具體到 PPAP 的場景中,在審核一份零件文檔時,智能體要并行處理工程圖紙的視覺理解、技術參數的結構化提取、與歷史版本的差異比對,這些任務背后是大量低精度矩陣運算的密集調度。Blackwell 架構的 Tensor Core 原生支持 FP4 數據格式的計算指令與執行路徑,使該精度推理在硬件層面可獲得更高的執行吞吐,從而帶來顯著的推理加速效果。
![]()
對企業的私有化部署來說,這意味著本地能跑的模型上限被直接拉高,原本更依賴高端服務器環境的模型,能夠在 Blackwell 架構的設備上獲得落地空間。
硬件能力要轉化為企業真正可用的解決方案,還得益于 CUDA 軟件生態所帶來的工程化能力。借助 CUDA、cuDNN、TensorRT-LLM 等成熟工具鏈,Blackwell 的 Tensor Core、Transformer 模型,以及低精度推理能力,能夠更高效地轉化為可部署、可調優、可持續迭代的本地推理能力。
另外,NVIDIA 還為這套底座補齊了配套的軟件棧。NemoClaw 能將復雜環境的搭建簡化為單條命令即可完成 OpenClaw 所需組件的安裝;接入 NVIDIA OpenShell 運行時后,還能為智能體提供隔離的執行環境,以及基于策略的網絡與數據訪問控制。
這套以 Blackwell 架構為底座、疊加推理加速與安全能力的體系,正好對上了企業當前最現實的幾項需求:本地推理壓縮了云端數據交換帶來的時延,敏感數據可以留在本地或內網沙盒中處理,長期運行的智能體對外部 Token 計費模式的依賴明顯下降,標準化的部署鏈路也讓 IT 團隊更容易將智能體納入既有的權限、安全與運維體系。
回到理想這條主線,今天承載 PPAP 的這臺聯想 ThinkStation PGX,明天可以承載過程審核智能體,后天可以承載質量策劃智能體,同一套硬件、同一套軟件棧、同一套安全策略。供應商在工廠里部署的,不是一個一次性的工具,而是一塊持續生長的 AI 地基。
撐起一條產業鏈的算力下沉
當一臺設備可以持續疊加能力,一個更大的變化就開始在產業側發生——這塊“AI 地基”的價值,會加速向整條供應鏈擴散。
其實,從行業看,在汽車制造業中,人員作業帶來的質量問題長期存在,一直缺乏有效的技術手段來解決。難點在于無法在復雜、多變的現場環境中,形成穩定運轉的質量閉環。
而理想的做法,是把 AI 能力延伸到供應商一側。理想通過專門建立實驗室,為供應商開發可以直接部署到車間里的 AI 產品。
在落地標準上,理想汽車供應鏈 PTC 工業化總監雷江波將其總結為四個關鍵詞:好用、易用、便宜、柔性。在 AI 時代,理想汽車也將供應鏈的決策時效從“天”壓縮到了“分鐘級”。在方法論層面,雷江波用 PDCA 框架總結其愿景:質量策劃(P)→現場執行(D)→數據回傳檢查(C)→審核分析與持續改進(A)。
![]()
理想方面透露,已經有同行車企看到供應商在使用這套產品的實際效果后,開始要求供應商在其自身體系中同步部署。相關技術正在從理想的供應鏈向更廣的范圍擴散。
理想汽車的實踐表明,企業級智能體要真正落地,模型能力決定起點,算力平臺的安全性、穩定性和擴展能力,則決定了 AI 業務能走多遠。
而聯想 ThinkStation PGX 的價值,正在于為這些關鍵能力提供穩定、可持續的支撐。這也是理想汽車在推進相關 AI 應用時,將聯想作為支撐模型運行與場景落地的重要合作伙伴的原因。
在實際應用中,理想汽車與聯想也展開深度合作。圍繞理想自研模型,聯想提供了定制化微調支持,并承擔了從硬件配置、部署實施到后期運維的整體交付。面對覆蓋廣泛的供應商網絡,聯想成熟的服務體系也為后續運行提供了保障。
如今,本地 AI 超算和云端的分工正在明朗起來:重訓練、跨域協同的任務繼續留在云上,對延時和數據駐留敏感、又必須貼近現場的任務,開始往車間和工位下沉。
這種下沉的速度推到哪里,本地能用的算力就要鋪到哪里。
而理想從 5 小時變 2 分鐘的效率提升,就是這種算力下沉,剛剛發生在工程師工位上的時刻。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.