11月27-28日,被譽為“年度科技與商業風向標”的36氪WISE2025商業之王大會,在北京798藝術區傳導空間落地。
今年的WISE不再是一場傳統意義上的行業峰會,而是一次以“科技爽文短劇”為載體的沉浸式體驗。
從AI重塑硬件邊界,到具身智能叩響真實世界的大門;從出海浪潮中的品牌全球化,到傳統行業裝上“賽博義肢”——我們還原的不僅是趨勢,更是在捕捉在無數次商業實踐中磨煉出的真知。
我們將在接下來的內容中,逐幀拆解這些“爽劇”背后的真實邏輯,一起看盡2025年商業的“風景獨好”。
此次大會上,GMI Cloud工程VP錢宇靖做了主題為《AI應用的出海效能升級·算力破局與推理架構進化》的演講。
GMI Cloud是一家北美的AI Native Cloud服務商,也是英偉達首批六大Reference Cloud Partner之一。
錢宇靖認為,對于世界用戶來說,AI應用多元化發展已經到了一個“武裝到牙齒縫”的狀態,出海成為了中國公司釋放產能、獲取新生的最佳途徑。
而在當前,中國的AI出海正在經歷著一場范式的革新——從過去的單向技術輸出,到圍繞算力全球化、需求的全球化、價值的全球化轉型。這背后,正是一場隱秘的全球價值共振。
![]()
錢宇靖
以下為錢宇靖的演講實錄,經36氪整理編輯
大家下午好!
我叫宇靖,我是GMI Cloud的VP of Engineering,主要分管的是所有工程類的項目。今天給大家帶來的分享是AI應用的出海效能升級,以及如何算力破局、完成推理框架的進化,給AI應用出海帶來更大的效能。
GMI Cloud還是一家比較新的公司,所以我在這里花一點時間給大家做一些簡單的介紹。
我們是一家專注于出海AI infra的公司,我們是NVIDIA首批六大Reference Cloud Partner之一,主要focus的項目就是我們的AI硬件以及往上的推理架構。
現在整個GMI Cloud有三大產品線——最底層的計算硬件、集群管理、MaaS層的推理服務。從三個不同維度給各種AI企業客戶提供他們所需要的能力。
我們在全球多地(東亞、南亞、北美、歐洲、加拿大)建有自有機房,同時我們剛剛耗資5億美金,在亞洲和英偉達一起建了一座GB300萬卡集群的AI Factory。在中國,我們主要面向AI 出海的企業用戶,關注出海,幫助大家做好出海。
那我們進入正題,除了業務模式需要,GMI Cloud在2025年關注到了哪些出海趨勢?
在今年這個當口,有的人會覺得AI有很大的泡沫,有的人又會信仰AI,認為AI應用接下來會有指數級的增長。從一個算力提供商或者是服務提供商的角度而言,我們所能看到的趨勢是,AI的市場的確是在一個exponential growth的形式往上增長。
雖然不同的企業、不同的分析師對于2025年下半年或者2026年的市場,有著不同的分析,但是整體的方向依然是一個向上走的方向。我們可以看到的是,今年中國海外AI應用的月活用戶依然是在不斷攀升的。
全球用戶,尤其是北美,他們對于主動擁抱AI這件事情已經養成了習慣,大家對于AI的應用的使用已經到了一個“武裝到牙齒縫”的狀態,90%以上的美國知識工作者已經非常熟練的在使用AI工具。
大家都知道,國內的付費軟件實際上是一個高同質化、高獲客成本的事情,也就是說在國內做SaaS門檻非常高。
但在中東以及拉丁美洲,有一個比較吃驚的數據,AI的應用也已經到了一個比較高的水位了,也就是說,出海市場我們的用戶教育,其實基本上已經完成了,這給我們出海帶來了一個極大的需求水位差。所以出海是釋放產能、獲取新生的最佳途徑。
當然,很多國內的企業也已經看到這個趨勢,在過去的兩年中,有很多的國內企業已經在進行AI服務出海,隨之而來的就是AI推理需求的指數型暴漲,這個是我們作為算力提供商能夠清晰感知到的一件事。
我們總結了一下,在AI出海的過程中,會遇到以下幾個關于推理相關的核心挑戰,比如服務的及時性、擴展性以及穩定性。
我們知道AI產品的一個趨勢是,潑天的富貴是突然到來的,很多時候,對于AI出海企業來講,你沒辦法以傳統軟件的角度去對它進行常規擴容,畢竟所有的Token都是需要GPU的,尤其是全球性擴容,這是一個比較大的挑戰。
此外,另外一個挑戰是,整個AI技術棧的技術迭代實在是太快了。從今年1月份到今年5月份,由于多節點系統推理爆發,Token價格實際上從一個比較高的水位,直接打到了一個地板價。
對于企業而言,它往往需要用自己的資源去做這件事情,所以他們也會有一個苦惱是,企業要如何跟得上現在的技術發展?
我們作為提供商,看到了這些需求和挑戰。GMI Cloud在今年做了什么事情呢?
首先作為一個算力服務商,我們當然是要建好自己的機房,現在我們在跟NVIDIA去做一個叫做AI Factory的項目,這個項目是黃仁勛4月份的時候給大家透露出來的,會利用最新的GB200、GB300這樣的大型的機器,極大增加集群吞吐量。我們是亞洲區域為數不多最先進行AI factory的NCP之一,而且是萬卡集群的規模。
然后就是繼續迭代我們的集群引擎和推理引擎。分別是中間層和上一層。這兩個引擎目標的客戶群也是不一樣的——我們的集群引擎,它面對的客戶是有一定工程技術能力、想要做一些比較復雜應用的客戶;上層的推理引擎,是對一些更加輕量級,完全注重于終端應用的一些企業客戶而設計的。
我們的集群引擎(Cluster Engine),實際上跟傳統云是非常類似的,只不過作為AI的原生云,它更focus在GPU本身的算力。
我們的集群引擎是一個標準的IaaS層,基本上覆蓋了底層的硬件、中間的裸金屬,再往上是集群管理,并且我們會覆蓋非常非常多的可監控性的一些插件,給大家提供一個比較熟悉的過程。
很多出海企業可能會習慣用一些海外大云,比如GCP、AWS,這些云關于GPU workload的一些功能,我們同樣會去支持。我們會有一個特殊化的IB組網技術,使得客戶能夠選擇他自己想要的集群尺寸來進行訓練。
另外,現在很多客戶會有私有的集群,在這個過程中,往往會遇到擴容的問題,這個問題也會被我們的Cluster Engine所完美的解決,因為我們已經接入了一個多云的架構。客戶可以在他自己的資源以及傳統的大云的資源之間進行切換,來完成他的峰值擴縮容的需求。
再講一下我們的推理引擎(Inference Engine)。推理引擎是一個更加簡單的產品項目,也就是前段時間大家所講的比較火的一個概念叫做Serverless。
我們的推理引擎集成了全球頭部的大模型,無論是開源還是閉源,在我們平臺上都有得到支持,你只需要一個API就可以訪問全球最新、最強的所有模型。
另外,我們的GMI Cloud 推理引擎支持跨集群、跨地區的自動擴縮容。為什么要做這件事呢?這也是跟出海需求強相關的事。我們發現很多客戶去訓練了一套自己的模型,當他上線了以后就會發現,他的流量在峰值的時候接不住。其次,當不同地區的用戶上線了以后,也會由于他集群地址一開始的選擇,影響他的整個產品體驗。
所以Inference Engine2.0的這個版本就是專門為這種場景所設計的,我們可以幫客戶去解決跨地區和跨集群自動擴縮容的問題。
具體怎么做的呢?我們其實做了一個三層設計的架構,調度全球的資源。基本上所有的Engine的Workload可以被分為兩種調度方式,一種是queue based,第二種是load balancing based。
queue based主要適用于現在比較火的一些像視頻類或者語音類的模型;load balancing based主要適用于大家比較熟知的一些大語言模型,我們會根據不同的Workload,來選擇它的調度方式。
比如,一個Workload對于延時是不是足夠敏感?還是說成本更加敏感?對于不同的選項,我們會調度到不同的大區,在不同的大區再把工作流進行分發,達到一個終端的GPU上面。
簡而言之,我們的推理引擎的核心架構有五個核心的特征:
1、全球化的部署,你只需要用我們一個平臺就可以解決全球化服務的部署。
2、我們幫你解決了二級調度架構的問題,當然這個跟全球部署也是息息相關的。
3、彈性。所有出海的模型公司、應用公司遇到最大的問題是彈性伸縮,因為企業剛開始的流量都具有波峰波谷的性質,它一開始目標的客戶人群以及客戶地區總是有限的,所以彈性是一個剛需。
4、高可用設計,我們可以保證客戶的Workload可以在任何時刻都可以被訪問。
5、所有Workload的統一管理。
以上五個特性是我們根據我們所看到的客戶需求而提供的五大特性。
跟剛才的集群引擎一樣,GMI Cloud Inference Engine也支持混合云。無論你是自己想要自建集群,還是用GMI Cloud自己的集群,或者是在一些公有云上已經有了Credit,或者是已經有了一些Workload,都可以通過我們平臺做統一的納管。你不太需要擔心資源的碎片化以及利用率,這在我們的頂層調度中已經被考慮到了。
在這邊,我也打一個小小的廣告。如果你有需求,需要host你自己的模型進行出海的話,可以試一試我們的推理引擎2.0的產品,叫做Dedicated Endpoint,也就是一個獨站式的節點。
你可以嘗試使用一下這個產品,嘗試一下想要把節點布到哪些集群、哪些地區上,以及你可以根據需求選擇便宜的節點或者更便捷的節點。
另外,給大家一個小小的預告,我們即將上線一個名為“GMI Studio”的產品,一個全新打造的創作體驗產品。
這個產品力,我們將原本偏模型管理以及部署的控制臺,升級為一個面向創業者、用戶群的產品。通過GMI Studio,用戶無需本地環境,也不需要搭建一個復雜的推理框架,就能夠在云端以“拖拽”的方式,自由組合出最新的AI模型以及它的應用。
最后,讓我們來暢想一下2026年吧。
2026年的AI出海范式升級,是一個從舊范式——(也就是)單向的技術輸出,到新范式——(也就是)全球價值共振的過程。
隨著AI出海浪潮愈演愈熱, AI 全球化正式升維,跳出 “技術單向輸出” 的淺層認知,指向全球 AI 產業從 “資源割裂” 到 “價值循環” 的底層變革。它不再是 AI 應用的地理性擴張,而是算力、技術、需求在全球范圍內形成的 “雙向賦能生態”。
算力層,全球資源余缺互補,優質算力加速模型優化;應用層,Token 從單純的 API 調用計量,演進為算力結算與生態激勵的復合價值載體。全球AI創新共生,模型、應用、場景、算力正在形成新的價值正循環。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.