![]()
智東西
作者 云鵬
編輯 漠影
今天,AI算力軍備競賽如火如荼,從搶芯片到囤算力,GW(吉瓦)級數據中心一座接一座拔地而起,海外科技巨頭更是動輒掀起數萬億元級別的AI基建大工程。
但錢真的“花在刀刃上”了嗎?或者說,“囤”的算力真的有被充分利用嗎?
根據國內RISC-V架構AI芯片領域頭部玩家之一奕行智能的研究團隊測算,各類AI加速器的實際利用率遠低于理論峰值。
問題不在于芯片不夠強,而在于現有的軟件調度方式,無法在運行時靈活地“喂飽”硬件。有人將賣算力比作AI“賣鏟子”,但同樣一把鏟子,用什么力度、角度去挖,在老師傅和菜鳥的手里,效率或有天壤之別。
我們看到,AI算力領域的下一波紅利,在于購買更高利用率的芯片,把每一分算力,真正用滿、用好。
在此背景下,近期智東西與奕行智能進行了深入交流,了解到其最新突破性研究正直指這一AI芯片行業(yè)痛點,其內部已研發(fā)實現基于Tile級虛擬指令集實現AI加速器的動態(tài)調度(TISA)。
簡單來說,TISA構建了一套“讓芯片在運行時自己做決策”的動態(tài)調度架構——在編譯器和硬件之間建立一種新的調度語義契約,使芯片能基于實時狀態(tài)智能分配任務。
![]()
▲TISA整體架構示意圖
值得一提的是,TISA 動態(tài)調度架構論文《Dynamic Scheduling for AI Accelerators via TISA》正式入選 ISCA 2026,這也是國內AI芯片公司在ISCA上的重要突破。
要知道,ISCA如同計算機體系結構界的Nature,是該領域歷史最久、最具影響力的會議,這代表奕行智能的核心技術路線已經獲得國際同行的正式認可。
可以說,讓有AI算力需求的玩家們“花小錢辦大事”,在AI時代更好地把握機遇方向上,奕行智能實現了一次重要突破,給產業(yè)破局提供了一種新的思路。
一、芯片買了錢花了,為什么效率提升跟不上?解密TISA三項核心突破
當前,各類前沿AI芯片單卡算力動輒達到幾PFLOPS(每秒千萬億次浮點運算)甚至幾十PFLOPS,峰值算力大幅提升,但相比算力的大幅提升,芯片算力利用率的提升卻遠未達到理論峰值。
從AI芯片內部結構來看,矩陣計算單元、向量計算單元,以及數據搬運單元協(xié)同運行,三者各司其職,同時持續(xù)滿負荷運轉才能實現最高效率。但當前AI芯片中主流采用的“編譯時靜態(tài)調度”模式,會在在程序運行前就把所有任務的執(zhí)行順序一次性排定。
這就像工廠廠長提前排好了生產計劃,卻不考慮工人臨時請假、設備臨時故障、原料臨時缺貨等情況(對應芯片運行時的帶寬爭用、溫控降頻等隨機擾動),很容易造成流水線“空轉干等”。
![]()
即便部分現代GPU在線程束(warp)調度等底層機制上引入動態(tài)調度,但這些機制僅在極細的指令粒度上運作,僅能解決CUDA Core內部的指令調度問題,無法協(xié)調數據搬運單元TMA、Tensor Core與CUDA Core三者的并發(fā)執(zhí)行,仍存在局限性。
相比之下,TISA架構是如何突破這一瓶頸的?整體來看,主要是三項關鍵技術創(chuàng)新。
首先是語義保留編譯器,其作為“翻譯官”,可以做到不丟失“背景信息”。傳統(tǒng)編譯器把AI模型翻譯成芯片指令,往往會丟棄算子類型、依賴關系等關鍵語義信息,就像轉述菜譜是只說操作步驟,卻不說每一步需要用什么材料、什么廚具、目的是什么。而奕行智能的編譯器在翻譯每一步時都會刻意保留這些“上下文”,讓芯片執(zhí)行的每一個計算任務都有完整說明,這是后續(xù)智能調度的信息基礎。
第二個重要創(chuàng)新是給每一個計算任務都附帶一張標準化“任務說明卡”,實現Tile級指令集TISA,說明卡會注明計算類型、所需硬件、依賴數據結果等信息,借此,芯片在運行時不再需要“猜測”就能精準判斷和規(guī)劃任務的并行和等待。
形象地來看,在AI計算過程中,AI編譯器會將大算子切分為可獨立調度、并行執(zhí)行的小塊,抽象成為一個個“Tile(數據塊)”,就像把一座積木城堡拆解為一個個積木塊,在保證計算完整的同時,能顯著提升調度靈活性與硬件利用率。
這已經成為目前行業(yè)的共識,2025年Tile編程范式迎來爆發(fā):從英偉達發(fā)布CUDA 13.1與cuTile工具鏈到北大開源TileLang獲得“國產Triton時刻”的贊譽,再到DeepSeek更宣布新模型算子優(yōu)先用TileLang做精度基線。可以說,讓Tile抽象成為行業(yè)共識,既能適配AI模型特性,又能充分挖掘芯片并行潛力。
![]()
第三是構建芯片的“實時大腦”,奕行智能對其命名為沖突感知運行時調度器,這也是整套系統(tǒng)的核心。調度器持續(xù)監(jiān)控芯片上所有計算單元的狀態(tài),一旦發(fā)現某個單元空閑,會立刻從待執(zhí)行任務中找出滿足條件的任務推送過去,整個決策過程極為迅速,從判斷到下發(fā)僅需幾納秒,不會給芯片帶來額外負擔,但可以大幅降低各單元“空等”時間。
相比在軟件層通過算法進行運行時調度有微秒級延遲,奕行智能的動態(tài)調度在硬件層實現,速度可以快100到1000倍,每一個調度決策可以保證在納秒級內完成,減少延遲帶來的損失,可以說,TISA也一定程度上代表了其軟硬協(xié)同能力。
從實際案例測試來看,在目前大模型推理中公認最先進的注意力機制實現FlashAttention-3中,相比CUDA版,TISA版本代碼量減30%,同步調用減少50%,性能達到手調基線的95%以上,并且由編譯器自動生成的,無需任何手工優(yōu)化。
![]()
▲CUDA版代碼(左)與TISA版代碼(右)對比
值得一提的是,同一套TISA指令流不僅可以在奕行智能自研芯片EPOCH上運行,也可以適用于其他第三方硬件平臺。
總體來看,TISA首次在AI芯片領域實現了Tile粒度的動態(tài)調度,填補了行業(yè)空白,首次定義了Tile級ISA作為軟硬件間的調度語義接口。
對于行業(yè)來說,奕行智能提供了一條擺脫“算力依賴”,不再一味追求大,而是更高效地充分利用好既有硬件的技術路徑,這對云端大模型推理和端側AI部署等計算資源受限、成本控制敏感等場景均有直接價值。
二、深耕類TPU架構,兼顧AI計算通用和專用,硬件、軟件、生態(tài)一個不能少
TISA架構實現突破的背后,是奕行智能在AI芯片領域長期深耕和深厚技術積累的一次階段性成果展示。在交流中我們也了解到,奕行智能對AI算力產業(yè)發(fā)展有深入思考和關鍵判斷,TISA技術突破正是其核心戰(zhàn)略方向上的一次技術落地。
從產品技術布局上來看,在芯片硬件層面,奕行智能研發(fā)的國內業(yè)界首款RISC-V AI大算力芯片EPOCH已經在今年年初就實現了大規(guī)模量產出貨,這也是業(yè)內率先采用RISC-V+RVV(RISC-V向量擴展)指令集架構、用于數據中心領域的AI算力芯片,填補了國內RISC-V架構在高性能AI計算領域的空白。
![]()
▲EVAS解決方案亮點
實際上,近期RISC-V架構在數據中心領域的應用已經成為行業(yè)重要趨勢方向,包括英偉達重金投資RISC-V龍頭企業(yè)SiFive以推動其數據中心業(yè)務與RISC-V生態(tài)系統(tǒng)的融合、Meta面向數據中心的AI芯片MTIA 300也利用了RISC-V向量核心、谷歌將RISC-V作為TPU芯片的底層指令集架構,與此同時,高通、Tenstorrent等相關領域全球科技巨頭也在持續(xù)加大對“RISC-V+AI”的投入。
奕行智能可以說很早就看清并認定了這一方向,在其團隊看來,RISC-V是當前最適合構建AI芯片的指令集架構:開放的圖靈完備指令天然支持復雜控制流,可以補上ASIC/NPU的靈活性短板;RVV向量則天然契合AI張量計算,掩碼操作原生支持稀疏矩陣;允許在標準之上擴展專用指令的定制化潛力,則讓AI芯片可以更好地兼顧通用性與專用性。
在當前全球大國博弈日益激烈的背景下,相較于需授權的Arm和x86架構,RISC-V作為開源開放的指令集架構,天然具有中立性,在打破壟斷、構建開放生態(tài)、構建自主可控的AI算力底座方面,有著不容忽視的戰(zhàn)略意義。
在RISC-V的基礎上,奕行智能在芯片架構設計方面有別于傳統(tǒng)通用GPU,類谷歌TPU架構專門針對AI計算場景進行了原生優(yōu)化,可以實現更高能效比,進一步提升AI訓練與推理效率,降低算力部署成本。
其自研的E Link互聯(lián)技術,既可作為AI計算模組內部的芯片間高速互聯(lián)方式,同時還支持Scale Up與Scale Out融合組網,集合通信庫加速,可以滿足多種互聯(lián)拓撲下對大帶寬、低延遲的智算互聯(lián)需求,支持前沿的在網計算。
可以說,這是國產自主高速互聯(lián)的重要突破。
奕行智能的芯片產品已經面向國產主流大模型進行了深度適配優(yōu)化,實測性能可以達到國內領先、對標國際一流的水準。在實測中,相比國際競品,奕行智能芯片在模型推理速度顯著提升:RestNet50提升52%,BERT-Base提升31%,GPT-J-6B提升25%,LLAMA2-13B提升43%,提升幅度明顯。
![]()
▲EPOCH與競品芯片性能對比
實際上,類谷歌TPU的專用AI加速芯片通常都會在性能和能效比上有著比通用GPU更大的優(yōu)勢,但其主要挑戰(zhàn)來自于生態(tài)適配成本,這也是行業(yè)努力的方向。
在降低生態(tài)適配成本、吸引開發(fā)者高效編程方面,基于Tile的編程模式本就能提供更友好的編程接口,提升算子開發(fā)效率,而此次入選頂會的獨創(chuàng)Tile級動態(tài)調度架構,由Tile級虛擬指令集、智能編譯器和硬件調度器組成,原生適配Tile生態(tài)范式,能實時適配硬件行為,充分挖掘芯片潛力,在編程方面也更為干凈簡潔。
Tile級動態(tài)調度架構的自動管理指令間依賴、指令順序流水和內存切分,都可以顯著提高編程易用性。
生態(tài)層面,奕行智能正積極與vLLM、Triton、gitee等國內外開源社區(qū)互動,與Triton國際社區(qū)合作,把Triton編譯導流到RISC-V DSA后端,并將開源其虛擬指令集,合力打造針對RISC-V DSA的CUDA生態(tài),對于RISC-V DSA整個產業(yè)的發(fā)展具有重要的戰(zhàn)略意義。
值得一提的是,奕行智能還計劃舉辦RISC-V AI 應用大賽,面向高校及科研院所開放合作,包括資源支持、技術培訓交流等,進一步加速RISC-V產學研生態(tài)的發(fā)展和成熟。
三、最新旗艦AI芯片已大規(guī)模量產,拿下行業(yè)頭部客戶
此次奕行智能在TISA技術方面的突破可以快速落地到自家芯片以及各類主流算力芯片中,并非只是停留在實驗室中的技術。實際上,在產業(yè)落地和商業(yè)化方面,奕行智能已經取得了長足進展。
奕行智能已經發(fā)布了多款AI芯片產品,據稱其最新一代EPOCH在行業(yè)頭部客戶中持續(xù)取得商業(yè)突破,可以說是真正走到產業(yè)中去了。
![]()
當然,芯片賽道歸根結底是“技術為王”,扎實的技術研發(fā)和產線體系的建立是奕行智能長期在堅持推進的,其核心團隊來自業(yè)界頂尖系統(tǒng)與芯片公司,目前布局北京、上海、深圳、杭州、南京、廣州等地。
從AI內核架構、編譯器、ESL 建模,到芯片前后端設計、封測與量產的全鏈條自研能力,奕行智能均有布局。簡單來說,他們有著全流程端到端交付能力和全鏈路商業(yè)化閉環(huán)能力。
作為國內唯一實現RISC-V云端AI算力芯片大規(guī)模量產的公司,奕行智能無疑已經成為AI時代RISC-V陣營在AI芯片賽道的核心扛旗手。
結語:從通用算力競賽到能效比對決,AI芯片設計轉向“運行時智能”
在交流中,奕行智能相關負責人提到,TISA架構突破帶來的并不是一個簡單的性能數字提升,而是AI芯片系統(tǒng)設計思路的一次重要轉變:從“靜態(tài)確定性”向“運行時智能”,編譯器可以描述意圖,進而讓硬件實現實時決策。
當然,這背后離不開多項關鍵技術的創(chuàng)新以及完善軟件工具和生態(tài)的支撐,在追尋更高能效比、更極致成本的今天,奕行智能著實給行業(yè)提供了一種新思路。
面向未來,行業(yè)變革仍在繼續(xù),成本的重壓有增無減,AI算力產業(yè)已經從 “通用算力競賽”進入了“能效比對決”時代,以TPU為代表的專用領域AI計算架構,以突出的能效比取得了市場成功,而奕行智能是其中跑的最快的一批。
在算力版圖逐漸重塑、國內AI芯片競爭激烈之下,奕行智能已經成為強有力的行業(yè)挑戰(zhàn)者和行業(yè)賦能者。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.