你“養(yǎng)龍蝦”了嗎? 近日,開(kāi)源AI智能體OpenClaw憑借其標(biāo)志性的紅色龍蝦圖標(biāo)迅速走紅,被網(wǎng)友親切地稱為“龍蝦”,由此引發(fā)的多個(gè)“養(yǎng)龍蝦”話題也接連登上熱搜。緊接著,國(guó)內(nèi)廠商也嗅到了商機(jī),接連推出相關(guān)產(chǎn)品。“養(yǎng)龍蝦”成了時(shí)下最流行的一件事。
![]()
在這場(chǎng)狂潮之中,受本地部署需求激增驅(qū)動(dòng),原本銷量平穩(wěn)的Mac mini在短短一個(gè)月多銷量暴增,目前線上線下普遍斷貨,陷入一機(jī)難求的火熱局面。本質(zhì)來(lái)看,真正帶火的其實(shí)不是Mac mini這臺(tái)機(jī)器,而是M1~M4為代表的SoC芯片。此時(shí),我們不得不發(fā)問(wèn),有沒(méi)有什么國(guó)產(chǎn)芯片能“養(yǎng)龍蝦”?
近日,一則來(lái)自網(wǎng)絡(luò)爆料在業(yè)內(nèi)悄然流傳:海光正在研發(fā)一款CPU/GPU/NPU集成、內(nèi)存統(tǒng)一管理訪問(wèn)的芯片,天然適合養(yǎng)龍蝦。
如果這款傳說(shuō)中的芯片最終落地,它將不僅僅是海光產(chǎn)品線的一次簡(jiǎn)單擴(kuò)容,更可能是一場(chǎng)從底層架構(gòu)定義國(guó)產(chǎn)算力標(biāo)準(zhǔn)的革命。它將從硬件層面徹底解決 AI推理的效率瓶頸,以及業(yè)界最為關(guān)切的自主可控安全問(wèn)題。
![]()
C86加速擁抱AI
與DeepSeek、豆包等傳統(tǒng)對(duì)話式AI不同,OpenClaw的定位是“能執(zhí)行真實(shí)任務(wù)的AI智能體”,它可直接部署在用戶本地電腦,連接日常通訊工具,主動(dòng)操作。因此,本地部署的剛需,加速了邊緣AI算力產(chǎn)品的需求。
當(dāng)下,廠商都看到邊緣AI的趨勢(shì),尤其是以生態(tài)著稱的x86芯片廠商。比如,AMD最新擴(kuò)展了銳龍AI嵌入式P100系列,英特爾面向嵌入式發(fā)布酷睿Ultra處理器,這些產(chǎn)品都選擇將x86 CPU、GPU、NPU放到一顆SoC中,通過(guò)三種算力的協(xié)同配合,力求發(fā)揮出最好的AI推理算力。
那么,通過(guò)爆料,我們可以得知,國(guó)產(chǎn)C86也正在加速擁抱AI,在智能化升級(jí)的道路上持續(xù)推進(jìn)。而C86體系的優(yōu)勢(shì)也很明顯,通過(guò)持續(xù)的技術(shù)消化與自主創(chuàng)新,C86不僅原生兼容超過(guò)4000萬(wàn)款Windows應(yīng)用程序,更能助力用戶實(shí)現(xiàn)向國(guó)產(chǎn)CPU芯片的無(wú)縫遷移,這一特性與當(dāng)下快速演進(jìn)的AI技術(shù)趨勢(shì)高度契合。
事實(shí)上,海光早在人工智能興起之初,就已布局邊緣AI,穩(wěn)步推進(jìn)相關(guān)能力的提升。此前,海光曾表示,端側(cè)AI已成大勢(shì)所趨,國(guó)產(chǎn)終端同樣需要本地運(yùn)行大語(yǔ)言模型的能力,以支撐各類AI創(chuàng)新功能。
海光高集成芯片如若上市,不僅有望緩解當(dāng)前市場(chǎng)對(duì)蘋(píng)果等國(guó)外芯片的過(guò)度依賴,也為國(guó)產(chǎn)AI硬件布局和升級(jí)增添了新選擇。
統(tǒng)一內(nèi)存管理是成功的關(guān)鍵
值得關(guān)注的是,在爆料中,提到海光采用統(tǒng)一內(nèi)存管理訪問(wèn)。而Mac Mini大賣(mài),蘋(píng)果M芯片的統(tǒng)一內(nèi)存架構(gòu)UMA(Unified Memory Architecture)功不可沒(méi)。
蘋(píng)果官方對(duì)于這項(xiàng)技術(shù)的描述是:“M芯片搭載了我們的統(tǒng)一內(nèi)存架構(gòu)UMA,將高帶寬、低延遲的內(nèi)存整合到同一定制封裝內(nèi)的單個(gè)池中,使SoC中的所有技術(shù)都能訪問(wèn)相同數(shù)據(jù),無(wú)需在多個(gè)內(nèi)存池之間復(fù)制拷貝,從而大幅提升性能與能效。這讓視頻處理更流暢、游戲畫(huà)面更精細(xì)、圖像處理更迅捷,整個(gè)系統(tǒng)的響應(yīng)速度也隨之顯著提升。”
想了解UMA,先要知道NUMA(非統(tǒng)一內(nèi)存訪問(wèn)架構(gòu))。NUMA架構(gòu)最早于上世紀(jì) 60年代由SGI(Silicon Graphics, Inc.)公司提出,其基于ccNUMA與模塊化設(shè)計(jì)的思路,奠定了現(xiàn)代CPU、GPU、超級(jí)計(jì)算機(jī)乃至AI芯片的底層架構(gòu)邏輯,如今被OpenClaw帶火的蘋(píng)果M系列芯片、NVIDIA NVLink等技術(shù)均受其影響。
在NUMA架構(gòu)下,CPU離內(nèi)存越近,訪問(wèn)越快。圍繞這個(gè)特性,NUMA的核心設(shè)計(jì)思路是將內(nèi)存就近掛載至各個(gè)CPU節(jié)點(diǎn),CPU之間通過(guò)高速互聯(lián)總線進(jìn)行通信;由此形成本地內(nèi)存訪問(wèn)快、遠(yuǎn)端內(nèi)存訪問(wèn)慢的非對(duì)稱特性,同時(shí)讓系統(tǒng)具備近乎無(wú)限的擴(kuò)展能力。
AI時(shí)代,SoC芯片中,CPU不再是唯一核心,GPU、NPU成為算力主力,NUMA也進(jìn)化出適配異構(gòu)計(jì)算的新形態(tài),最具代表性的縮影便是蘋(píng)果M系列芯片的統(tǒng)一內(nèi)存架構(gòu)(UMA):物理布局上,CPU、GPU、NPU圍繞高速內(nèi)存核心排布,實(shí)現(xiàn)“核心就近取數(shù)”;緩存策略上,通過(guò)L1/L2私有緩存+共享緩存,模擬NUMA的“本地內(nèi)存+遠(yuǎn)端內(nèi)存”邏輯。M系列芯片的成功,證明了NUMA架構(gòu)在芯片級(jí)設(shè)計(jì)中的有效性。
我們看到,諸如海光等國(guó)產(chǎn)芯片,也在積極布局這種技術(shù)。這意味著未來(lái)的海光芯片,CPU、GPU和NPU將不再各自為政,而是共享同一個(gè)物理內(nèi)存池。處理器核心之間通過(guò)高速總線性直連,無(wú)需再經(jīng)過(guò)傳統(tǒng)的I/O橋片進(jìn)行數(shù)據(jù)搬運(yùn)。最終,體現(xiàn)到“養(yǎng)龍蝦”中,就是更快的響應(yīng)速度,成為真正為AI而生的國(guó)產(chǎn)芯片。
![]()
自主可控安全迎來(lái)新階段
海光推出“三合一”芯片,更為深遠(yuǎn)的影響在于戰(zhàn)略安全層面。自成立伊始,海光長(zhǎng)期深耕自主的C86指令集與技術(shù)生態(tài)體系。這意味著,海光能夠從硬件底層解決普遍擔(dān)憂的自主可控以及安全問(wèn)題。
目前,海光芯片具備天然的安全優(yōu)勢(shì)。其不僅對(duì)C86處理器安全技術(shù)進(jìn)行規(guī)范和統(tǒng)一,同時(shí)在內(nèi)部引入了一種新型解決方案,集成了密碼學(xué)協(xié)處理器 (CCP),底層C86指令集可支持密碼學(xué)指令。
回看海光多年的技術(shù)迭代路徑,從高端通用處理器,到算力基礎(chǔ)設(shè)施,再到AI計(jì)算場(chǎng)景的適配與支持,其始終在進(jìn)行體系化、系統(tǒng)級(jí)的技術(shù)沉淀。國(guó)產(chǎn)算力的突破,早已不只是性能指標(biāo)的追趕,更體現(xiàn)在架構(gòu)設(shè)計(jì)與頂層規(guī)劃能力的提升。貫穿其中的芯片研發(fā)思路,也再次印證:海光正堅(jiān)定地走在屬于我們自己的技術(shù)路線上。
請(qǐng)將我們?cè)O(shè)為“星標(biāo)”,這樣就會(huì)第一時(shí)間收到推送消息。
歡迎關(guān)注EEWorld旗下訂閱號(hào):“機(jī)器人開(kāi)發(fā)圈”
掃碼添加小助手回復(fù)“機(jī)器人”
進(jìn)群和電子工程師們面對(duì)面交流經(jīng)驗(yàn)
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.