IT之家 12 月 30 日消息,科技媒體 Wccftech 昨日(12 月 29 日)發布博文,報道稱英偉達計劃在 2028 年推出的“費曼”(Feynman)GPU 中,集成 Groq 的 LPU(語言處理單元)技術,意圖借此主導 AI 推理市場。
![]()
圖源:Wccftech
理查德?費曼(Richard Feynman,1918-1988)是美國著名理論物理學家、諾貝爾獎得主,以其在量子電動力學(QED)上的貢獻,特別是提出了費曼圖而聞名,他因該工作與施溫格、朝永振一郎共同獲得 1965 年諾獎。
GPU 領域專家 AGF 于 12 月 28 日在 X 平臺分析預測,Feynman GPU 將借鑒 AMD 在 X3D 處理器上的成功經驗,極有可能采用臺積電先進的 SoIC(系統整合芯片)混合鍵合技術,實施 3D 堆疊設計。
![]()
根據這一構想,主計算裸片(compute die,包含 Tensor 單元與控制邏輯)將采用臺積電最先進的 A16(1.6nm)工藝制造,而包含大規模 SRAM(靜態隨機存取存儲器)存儲庫的 LPU 單元則會制成獨立的 Die,直接堆疊在計算核心之上。
這種設計利用了 A16 工藝的“背面供電”特性,釋放了芯片正面空間用于垂直連接,從而實現超低延遲的數據傳輸。
![]()
圖源:Wccftech 利用 AI 制作生成
該專家分析認為英偉達之所以考慮這種復雜的堆疊方案,主要源于物理層面的限制。隨著制程工藝不斷微縮,SRAM 的縮放速度已明顯滯后于邏輯電路。
如果在昂貴的先進制程節點上制造單片式的大容量 SRAM,不僅會造成高端硅片的浪費,還將導致晶圓成本急劇飆升。因此,將 LPU / SRAM 剝離為獨立 Die 并進行堆疊,成為平衡性能與成本的最優解,這也符合當前半導體行業追求“芯粒”(Chiplet)化的技術趨勢。
IT之家援引博文介紹,盡管堆疊方案理論上能帶來巨大的推理性能飛躍,但實際落地仍面臨重重困難。首先是散熱問題,在原本就高密度的計算核心上再堆疊發熱單元,極易觸碰熱功耗墻。
其次是更為棘手的軟件適配問題:Groq 的 LPU 架構強調“確定性”執行順序,而英偉達賴以生存的 CUDA 生態則基于硬件抽象與靈活性設計。
![]()
圖源:Groq
如何在保證 CUDA 兼容性的前提下,完美融合 LPU 的固定執行邏輯,將是英偉達工程師必須攻克的“工程奇跡”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.