![]()
數字計算主導了計算機世界這么多年,現在終于出現了一種新路徑,能在速度和能耗上大幅超越它。
北京大學人工智能研究院的孫仲團隊,聯合集成電路學院的研究者們,開發出一款基于阻變存儲器的模擬矩陣計算芯片。這項工作把模擬計算的精度推到了24位定點水平,解決了這個領域長達一個世紀的難題。
性能測試顯示,在處理大規模MIMO信號檢測這類科學問題時,它的計算吞吐量和能效,比頂尖的圖形處理器高出百倍到千倍。成果已經在《自然·電子學》上發表,這不只是技術進步,還為人工智能和6G通信領域的算力瓶頸提供了新出路。
傳統計算機和GPU靠0和1的數字運算,精確度高,但遇到復雜數學任務,就顯得慢而耗電。模擬計算不同,它直接借用電路的物理特性得出結果,速度快,能耗低,可惜精度一直跟不上。
現在的電腦在處理通用任務如上網或游戲時,數字方式占優。但在高密度矩陣運算上,模擬計算的潛力巨大。北大團隊的創新在于一個內部迭代校正機制:先用低精度電路快速得出粗略答案,再用高精度電路計算誤差,這個誤差反饋回去修正初始結果。重復幾次,精度就大幅提升。實驗中,解一個16x16矩陣,10次迭代后,相對誤差降到千萬分之一,相當于32位浮點數字計算的水平。
實際應用上,這個芯片在6G通信的MIMO信號檢測中表現突出。這是基站處理信號的核心瓶頸,只需迭代3次,就能達到高精度數字處理器的效果,誤碼率完全一致。吞吐量超過頂級GPU千倍,能效高百倍以上。這意味著在特定場景下,計算資源能更高效利用,避免大量能源浪費。
這項突破放在后摩爾時代背景下,更有意義。摩爾定律接近物理極限,芯片工藝難再縮小,人們開始探索新計算范式。從搜索到的信息看,除了模擬計算,量子計算和光計算也在推進。量子計算擅長并行處理復雜優化問題,但目前受噪聲和穩定性限制,還不成熟。光計算用光信號傳輸數據,速度極高,能耗低,已在一些數據中心測試中顯示潛力。異構芯片則結合不同處理器類型,提升整體效率。這些路徑各有側重,模擬計算的優勢在于對矩陣運算的專長,尤其適合人工智能訓練中的線性代數操作。
人工智能領域正面臨巨大能源挑戰。訓練大型模型如GPT系列,需要海量電力,全球數據中心能耗已占總電量的2%以上。6G網絡目標是實現超低延遲和海量連接,但集成AI后,能源消耗會進一步上升。資料顯示,AI能優化6G的資源分配,減少浪費,但自身計算也加重負擔。
北大芯片的模擬方法,能在邊緣設備上高效運行AI推理,降低整體能耗。想象一下,在智能電網或自動駕駛中,這種芯片處理實時信號檢測,不用依賴云端,就能節省大量電力。這不只技術層面,還涉及可持續發展:減少碳排放,支持綠色計算。
我的看法是,這項工作可能開啟混合計算時代。未來系統或許數字部分管通用邏輯,模擬部分專攻高強度數學。結合RRAM技術,這種芯片在40nm工藝上已實現高精度,擴展性強,能集成到現有生產線。相比量子計算的昂貴冷卻需求,模擬計算更易推廣。
6G標準制定中,如果納入類似架構,網絡效率能提升一個臺階。但挑戰在于通用性不足,目前只適合特定任務。長遠看,它推動計算從純數字轉向多元范式,緩解AI爆炸式增長帶來的能源危機。
總的來說,這個芯片證明了改變計算原理,能帶來飛躍式進步。它不取代現有電腦,而是補充關鍵短板。在人工智能和通信迅猛發展的今天,這樣的創新至關重要,幫助我們應對算力短缺。希望更多研究跟進,讓這些技術盡快落地。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.