![]()
又一家國內AI芯片公司上市了!
1 月25 日,港交所官網披露,愛芯元智已通過聆訊并公布招股書。
在AI 應用加速落地的階段,愛芯元智的業績也進入了快速增長期。過去三年,公司收入分別為 5023 萬元、2.3 億元和 4.73 億元,兩年時間增長超過 8 倍。
業績的增長,一方面來自并購帶來的規模擴張,另一方面,也折射出AI 推理需求在真實場景中的快速放量。目前,愛芯元智的 AI 推理芯片,已在視覺終端計算、智能汽車和邊緣 AI 推理三大應用場景實現規模化落地。
從行業位置看,這份成績單也將公司推到了第一梯隊。
按2024 年出貨量計算,愛芯元智在算力不低于 1 TOPS 的中高端視覺端側 AI 推理芯片領域位居第一;同時,公司也是中國第二大國產智能駕駛 SoC 供應商,以及國內第三大邊緣 AI 推理芯片供應商。
接下來,就跟著硅基君,一起拆解這家國產AI 推理芯片公司的業務與邏輯。
推理算力下沉,決戰邊緣與端側
要讀懂愛芯元智,首先要理解AI 芯片的兩種形態:訓練(Training)與推理(Inference)。
打個比方,訓練就像是“在學校深造”。為了培養一個 AI 模型,需要處理海量數據、反復迭代參數。這需要極高的算力密度和高帶寬,讓成百上千張顯卡像一支軍隊一樣協同作戰 。這是英偉達絕對統治的領地。
而推理,則是模型畢業后的“工作執行”。
每一次AI 應用的喚起(比如人臉識別開門、輔助駕駛剎車),都是一次推理。它不追求單次算力的無限堆疊,但要求反應極快(低延遲)和成本極低(高能效) 。
過去,推理往往也放在云端。但隨著AI 設備的爆發,人們發現云端推理有硬傷:數據回傳慢、隱私不安全、帶寬成本高。
于是,算力開始下沉,大致可以分為兩種路徑:邊緣AI 推理芯片和端側 AI 推理芯片。
端側AI 芯片很好理解,通常部署在智能手機、可穿戴設備、AI 眼鏡等終端中;
而邊緣AI 推理芯片,則部署在更靠近數據源的位置,例如邊緣服務器、網關或基站,承擔的是實時、本地化的推理任務。很多決策需要在毫秒級完成,數據本身也并不適合回傳到云端處理。
這構成了一個巨大的增量市場。2024 年,全球 AI 推理芯片市場規模約為 6067 億元,其中邊緣與端側的份額正在迅速擴大,占比超過50%。
尤其在中國,這一特征更加明顯。大量AI 應用并非誕生于互聯網平臺,而是分布在城市治理、工業系統、交通和汽車等實體場景中。
這些場景的共同特征是:推理需要長期運行,但并不追求無限擴展的算力。這也為端側和邊緣推理芯片,形成了一個相對獨立的市場空間。
而愛芯元智的業務就是,做面向邊緣與終端場景的AI 推理芯片。
從收入構成看,公司收入主要來自終端計算產品、邊緣AI 推理產品以及智能汽車產品。
其中,面向安防和工業視覺場景的終端計算產品是公司最核心的收入來源。
2024 年,該類產品實現收入 4.47 億元,占公司總收入的 94.5%。
在具體形態上,終端計算產品以視覺感知系統級芯片為主。更直觀地說,它相當于攝像頭的“大腦”。
在各類AI 推理任務中,視覺數據始終是最主要的輸入源,約占全部感知數據的 80%。但同時,它也是處理難度最高的一類數據:數據量大、結構復雜,拍攝環境多變(如夜晚、逆光、強噪聲),并且對實時響應有著嚴格要求。
這使得視覺端側AI 推理芯片,對算力組織、內存帶寬和能效比提出了更高要求。
按性能劃分,視覺端側AI 推理芯片通常可分為低端與中高端兩類。低端芯片算力普遍低于 1 TOPS,而中高端芯片則超過這一門檻,能夠支撐更復雜的視覺推理任務。2024 年,全球中高端視覺端側 AI 推理芯片的市場規模約為 24 億元。
在這一細分市場中,愛芯元智已建立起明確優勢。按算力超過1 TOPS 的中高端視覺端側 AI 推理芯片口徑計算,公司在 2024 年的全球市場份額達到 24.1%,位居第一。
在終端計算產品之外,愛芯元智也同步布局了邊緣AI 推理 SoC 和智能汽車 SoC。
其中,邊緣AI 推理 SoC 主要部署在邊緣服務器、AI 盒子和一體機中。按 2024 年出貨量計算,公司在國內邊緣 AI 推理芯片市場排名第三。
智能汽車業務則聚焦L2 和 L2+ 級 ADAS 場景,相關產品已實現多款車規級芯片量產,并獲得多家 Tier 1 供應商的定點支持。
愛芯元智的兩大“殺手锏”:不僅算得省,還要看得清
如果說,云端AI芯片的邏輯是“大力出奇跡”,但在邊緣與端側,邏輯就完全變了,衡量AI芯片價值的因素只有兩個:計算效率與環境感知。
先說前者,現代AI推理芯片需要在毫秒級的響應速度和毫瓦級的功耗預算之間走鋼絲。如果缺乏高效的計算能力,感知到的數據很快就會從“資產”變成“負擔”。
傳統的通用處理器在這里顯得水土不服,CPU太慢,處理不了萬億次級別的并行計算;而GPU又太貴,散熱還慢。
這也是為什么,越來越多的邊緣與端側AI 芯片開始引入專用的 NPU。
通過針對神經網絡計算模式進行優化,NPU 能在更低功耗下完成推理任務,減少內存訪問和散熱壓力,不僅提升實時性,也延長了設備的整體運行壽命。
在這一判斷之下,愛芯元智從一開始就沒有沿用通用計算架構,而是選擇以NPU 為核心,圍繞推理負載重新設計芯片,并推出了愛芯通元(Axera Neutron)混合精度 NPU。
如果說,英偉達GPU 的優勢在于通用性,能完成各種復雜任務,而愛芯通元就更像一套為特定場景精心打磨的工具。
根據招股書的說法,愛芯通元NPU優勢主要體現在,能夠根據任務復雜度,動態調整計算精度。
比如,面對簡單任務,它會自動切換到 INT4 或 INT8,以降低功耗、提升速度;而面對復雜的任務,它則切換至INT16,以保證精度。
這種架構的精妙之處在于,它通過動態調整計算精度,大幅壓縮了計算冗余,減少了不必要的數據搬運。這直接擊穿了AI計算中常見的“內存墻”和“數據墻”瓶頸。
結果是驚人的。在同等芯片面積下,愛芯通元NPU的每瓦吞吐量(能效比)比傳統GPU架構提升了10倍。
除了計算效率的問題,環境感知也是愛芯元智另一大特色。
在邊緣場景中,AI芯片必須直接面對嘈雜的現實世界。視覺信號占據了感知輸入的80%。如果輸入圖像模糊、噪點多,后端的模型再強大也是“盲人摸象”。
在這種情況下,圖像信號處理器(ISP)的價值就體現出來了。
ISP的作用很簡單,就是在AI推理之前,把攝像頭采集的原始數據“洗干凈”(降噪、校色、優化動態范圍)。
但傳統的ISP依賴固定規則,面對極低光照或復雜光線往往束手無策。用招股書的話說,愛芯元智的突破之處在于,將AI引入了ISP,推出了“愛芯智眸(Axera Proton)AI-ISP”。
與依賴固定規則的傳統ISP 不同,這套 AI-ISP 在圖像信號處理鏈路中引入 AI 模型,對關鍵環節進行像素級優化,實現降噪、高動態范圍增強以及低光環境成像優化。
即使在漆黑的夜間,也能還原出清晰、全彩的畫面。
在對成像質量高度敏感的應用場景中,這種將“感知”與“計算”深度融合的一體化設計,不僅提升了數據傳輸的質量,也減少了數據回傳云端的帶寬需求,降低了系統的整體延遲。
收入翻10倍為何還在虧?拆解愛芯元智的賬本
在財務層面,愛芯元智也面臨著成長的煩惱。
雖然收入暴漲,但公司仍處于虧損狀態。2022-2024年,公司經調整凈虧損分別為4.44億、5.42億和6.28億元。
虧損除了研發投入較高外,毛利率相對較低也是另一大原因。過去三年,愛芯元智的毛利率分別為25.9%、25.7%和21%。
在成本結構中,晶圓始終是公司最重要、也最難繞開的支出項。
![]()
晶圓價格并非由公司單方面決定,而是高度受制于供應鏈環境與制程工藝。
2020 年前后,受疫情沖擊,上游產能一度收緊,晶圓供給趨緊,價格明顯抬升,這一變化在隨后幾年持續影響了芯片公司的成本結構,進而影響了公司的盈利能力。
在需求端,從平均售價(ASP)的變化,也能看到愛芯元智不同產品線呈現出的分化。
2022 年,終端計算產品的平均售價為每顆 48.18 元;2023 年大幅下降至 4.49 元;隨后在 2024 年回升至 5.70 元。進入 2024 年后,ASP 整體趨于穩定,截至 2024 年前九個月為 6.03 元,2025 年同期基本持平,為 6.04 元。
這一下降并非來自產品競爭力削弱,而主要源于產品結構變化。
2023 年,公司完成對華圖相關業務的并購,低價產品出貨量大幅增加,拉低了整體均價,使 2022 年與其后的 ASP 數據在結構上并不具備直接可比性。
隨著產品組合逐步消化調整,2024 年起,中高端芯片占比提升,終端計算產品的 ASP 開始回歸相對穩定區間。
相比終端計算產品,智能汽車以及邊緣AI 推理產品則面臨著更激烈的市場競爭。
截至2024 年前九個月,智能汽車產品的平均售價由上一年同期的每顆 78.70 元下降至 63.30 元。
對此公司的解釋是,這一下行主要與行業競爭加劇有關。在智能駕駛芯片市場,隨著參與者增多、產品代際更新加快,價格壓力逐步顯現,ASP 出現階段性回落。
邊緣AI 推理產品的定價走勢則更具行業代表性。
2023 年,該類產品的平均售價為每顆 240.39 元;2024 年下降至 185.48 元;截至 2024 年前九個月為 192.32 元,并在 2025 年同期進一步降至 176.43 元。
價格下行的背后,并非需求減弱,而是市場擴張帶來的客戶結構變化。隨著應用場景拓展、客戶數量增加,公司在定價策略上更加注重規模與滲透率,通過更具競爭力的價格換取出貨量增長。
總體來看,愛芯元智當前仍處在規模擴張階段。收入增長較快,但研發投入、晶圓成本以及價格競爭共同壓制了盈利能力,不同產品線的ASP 變化也反映出公司在擴張與定價之間的權衡。
接下來,公司的關鍵不在于短期扭虧,而在于能否在出貨規模繼續放大的同時,通過產品結構優化和成本控制,逐步改善毛利率水平。這將決定其增長是否具備長期可持續性。
PS:如果你對AI大模型領域有獨特的看法,歡迎掃碼加入我們的大模型交流群。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.