![]()
作者 | 周一笑
郵箱 | zhouyixiao@pingwest.com
2025 年,AI 算力市場的重心正在發(fā)生偏移。DeepSeek 等開源模型的爆發(fā)是一個(gè)明確信號,AI 的主戰(zhàn)場正從昂貴的訓(xùn)練場景,被拽入高頻、碎片化的推理場景。在這個(gè)節(jié)點(diǎn)上,Alex Yeh 和他的 GMI Cloud 站在了一個(gè)微妙的位置。
這家成立僅 3 年的公司,正在以一種罕見的速度完成資本與產(chǎn)能的原始積累。去年 10 月,GMI Cloud 拿到了 8200 萬美元的 A 輪融資 ,今年上半年又獲得了 NVIDIA NCP(Reference Platform NVIDIA Cloud Partner)認(rèn)證 。這個(gè)認(rèn)證,截至目前全球僅有 7 家公司持有 ,在緊缺的算力市場,它意味著擁有最高優(yōu)先級的拿貨權(quán)和原廠技術(shù)支持 。
上周,GMI Cloud 宣布與 NVIDIA 在中國臺灣合作建設(shè) AI Factory,GMI Cloud 自行總投資 5 億美元 。這座超級數(shù)據(jù)中心計(jì)劃部署基于 GB300 NVL72 架構(gòu)的萬卡集群 。據(jù)官方透露的獨(dú)家消息,該工廠的第一期算力已經(jīng)售出,第二期也已有 50% 被預(yù)定 。
這背后是當(dāng)前算力市場的真實(shí)供需,盡管芯片產(chǎn)能不再像兩年前那樣極度緊缺,但優(yōu)質(zhì)、可用的集群資源依然稀缺。Alex Yeh 將這種狀態(tài)形容為一種復(fù)雜的壓力。作為 GMI Cloud 掌舵者,他必須在產(chǎn)能與需求之間走鋼絲,同時(shí)警惕懸在所有 GPU 云廠商頭頂?shù)倪_(dá)摩克利斯之劍:當(dāng) GPU 最終變成像水電煤一樣的大宗商品,一家創(chuàng)業(yè)公司如何避免淪為巨頭陰影下的流量管道?
Alex Yeh 并非典型的極客創(chuàng)業(yè)者。在創(chuàng)辦 GMI Cloud 之前,他在私募股權(quán)和風(fēng)險(xiǎn)投資領(lǐng)域工作多年,曾是加密貨幣與區(qū)塊鏈生態(tài)中最年輕的合伙人 。資本市場的訓(xùn)練讓他習(xí)慣于剝離技術(shù)泡沫,尋找資產(chǎn)的底層邏輯。
他曾目睹區(qū)塊鏈行業(yè)的興衰。在他看來,那個(gè)市場唯一恒定的資產(chǎn)是比特幣,而獲取它的路徑只有兩條,算力和能源。并沒有選擇炒作幣價(jià),他投身于數(shù)據(jù)中心建設(shè)和電力布局 。如今,他將這套邏輯復(fù)用到了 AI 領(lǐng)域。無論應(yīng)用層如何演變,無論最終勝出的是 Coding 還是視頻生成模型,算力是唯一的確定性剛需。
但他拒絕做純粹的算力租賃商。在 AWS、Azure 和 Google Cloud 等超大規(guī)模云廠商統(tǒng)治的市場“牌桌”中,GMI Cloud 試圖走出一條“符合 AI 應(yīng)用企業(yè)需求的全鏈條算力支持”的新路子。
不同于巨頭主要圍繞 CPU 構(gòu)建的通用云底座,GMI Cloud 選擇了重資產(chǎn)模式:底層裸金屬采買自持英偉達(dá)高端 GPU,在全球建設(shè)多個(gè)數(shù)據(jù)中心;中間 IaaS 層自研集群調(diào)度引擎——Cluster Engine(集群引擎)平臺,上層提供 MaaS 服務(wù)——Inference Engine (推理引擎)平臺。同時(shí),據(jù)一手消息,他們還即將上線一款名為“GMI Studio”的 Workflow 產(chǎn)品,以及在年底陸續(xù)孵化強(qiáng)化學(xué)習(xí)類產(chǎn)品。這種從裸金屬到 Token,再到應(yīng)用層產(chǎn)品的全棧支持能力,讓他們在面對 CoreWeave 等北美友商時(shí),依然能在亞太和出海市場找到生存空間。
Alex 并不避諱談?wù)撔袠I(yè)的殘酷。他看到單純的 GPU 租賃生意終將面臨利潤攤薄,為了在紅海到來前建立壁壘,所以他正在做兩件事,一是在全球范圍內(nèi)鎖定 2027 年的電力資源,因?yàn)殡娏⑹菙?shù)據(jù)中心最大的硬約束;二是構(gòu)建軟件生態(tài),通過深度優(yōu)化模型提供比原生平臺更快、更低成本的推理服務(wù)、模型服務(wù) 。值得一提的是,在行業(yè)里大家都還沒有將“電”視為第一生產(chǎn)力影響要素的時(shí)候,Alex 早就已經(jīng)提前做電廠的部署規(guī)劃。
GMI Cloud 是這一輪 AI 基礎(chǔ)設(shè)施玩家洗牌的縮影,是 AI Cloud 時(shí)代下的當(dāng)紅新貴。當(dāng)熱錢退去,只有那些能解決供應(yīng)鏈、電力和深度技術(shù)服務(wù)的公司,才能留在牌桌上。
近期,我們與 GMI Cloud 創(chuàng)始人 Alex Yeh 進(jìn)行了一次對話,談到了他對算力市場的判斷、公司的策略選擇,以及這門生意的本質(zhì)。以下是對話實(shí)錄,經(jīng)不改變原意的編輯。
看不清哪個(gè) AI 應(yīng)用會(huì)跑出來,但算力是確定的
硅星人:在創(chuàng)立 GMI Cloud 之前,你有著非常豐富的 AI 和 VC/PE 投資背景。是什么契機(jī)讓你從“看項(xiàng)目的人”轉(zhuǎn)變?yōu)橄聢觥白鲰?xiàng)目的人”,并投身到 AI 基礎(chǔ)設(shè)施賽道?
Alex:這其實(shí)源于我做投資時(shí)的一個(gè)核心訓(xùn)練,叫 First Principle Thinking(第一性原理思考)。我習(xí)慣去問五個(gè)“為什么”,一層層剝開表象,直到推導(dǎo)出一個(gè)市場里不變的真理。
舉個(gè)例子,如果不看科技看養(yǎng)老,那個(gè)市場里不變的真理就是“老齡化”,所有的看護(hù)、醫(yī)療需求都圍繞這個(gè)不變的邏輯展開。當(dāng)年我看區(qū)塊鏈行業(yè)也是一樣,為了尋找市場中的 Alpha,我發(fā)現(xiàn)那個(gè)賽道里唯一恒定的其實(shí)是比特幣。而要想持續(xù)獲得比特幣,最底層的邏輯就是“算力”和“能源”。所以我當(dāng)時(shí)沒有選擇去炒幣,而是直接投身去做了最底層的“挖礦”,也就是數(shù)據(jù)中心的建設(shè)和電力資源的布局。
現(xiàn)在的 AI 賽道雖然五花八門,從通用的 LLM 到各種垂直賽道——心理治療、數(shù)學(xué)科研、視頻模型、Coding 等等,但它們中間核心不變的是什么?推導(dǎo)到最后,它們都需要消耗巨大的算力。
就像 1995 年互聯(lián)網(wǎng)剛起步時(shí),我們根本無法預(yù)見到 20 年后會(huì)出現(xiàn) Facebook、Amazon 或是阿里巴巴。同樣的,我現(xiàn)在可能看不清未來哪個(gè)具體的 AI App 會(huì)跑出來,但我能確定整個(gè)賽道對 GPU 算力的需求是確定的。所以,相比于去賭某一個(gè)具體的應(yīng)用或工具(風(fēng)險(xiǎn)較大),賭整個(gè) GPU 算力賽道對我來說是風(fēng)險(xiǎn)最小、確定性最高的選擇。加上之前做區(qū)塊鏈基礎(chǔ)設(shè)施積累的機(jī)房建設(shè)經(jīng)驗(yàn)和電力資源,也讓我能比較快速地切入這個(gè)領(lǐng)域。
硅星人:與 AWS、Google Cloud 等云服務(wù)商(Hyperscalers)相比,GMI Cloud 的核心差異化是什么?業(yè)界有聲音認(rèn)為專業(yè)的 AI Cloud 效率能高出 40%,你們有觀察到類似的優(yōu)勢嗎?
Alex:Hyperscalers 和我們最大的區(qū)別,我覺得主要體現(xiàn)在三個(gè)維度:位置(Location)、服務(wù)顆粒度(Service)和產(chǎn)品形態(tài)(Product)。
首先是位置。Hyperscalers 通常只圍繞特定的幾個(gè)核心大區(qū)(Region)服務(wù)。但在很多特定市場,比如東南亞,公有云的覆蓋其實(shí)并不完整,往往需要連接到東京或其他大節(jié)點(diǎn)的機(jī)房,這在延遲和數(shù)據(jù)合規(guī)上會(huì)有很大問題。GMI Cloud 創(chuàng)立之初就是一家 Global Company,我們在全球多個(gè)地區(qū)有多個(gè)節(jié)點(diǎn),能更靈活地滿足當(dāng)?shù)乜蛻魧?shù)據(jù)駐留和低延遲的需求。
其次是服務(wù)的深度。這個(gè)行業(yè)里,除非你是全球 500 強(qiáng)或者每年預(yù)算在 2000 萬美金以上,否則你很難在 Hyperscalers 那里獲得專屬的 Account Executive 或技術(shù)支持。但在 AI 訓(xùn)練中,機(jī)器與模型的綁定非常深,訓(xùn)練過程極不穩(wěn)定,非常需要 TAM(技術(shù)客戶經(jīng)理)和 SA(解決方案架構(gòu)師)的深度支持。GMI Cloud 能提供這種高強(qiáng)度的技術(shù)支持,幫助客戶優(yōu)化 Token 和 Infra,這是很大的體感差距。
最后是產(chǎn)品。Hyperscalers 的底座大多是圍繞 CPU 云構(gòu)建的,GPU 只是其中一部分,很多產(chǎn)品是基于 CPU 架構(gòu)做的變通。而 GMI Cloud 是 AI Native 的,我們不僅是賣算力,還做到了底層的 Model Optimization 和 Memory Optimization。例如在 Llama 模型的推理上,我們的吞吐量和首字延遲能比傳統(tǒng)云廠商快 2-3 倍;在視頻生成模型上,我們的速度甚至能比某些官方 API 快 3 倍。這就是專注帶來的紅利。
硅星人:面對與 CoreWeave、Lambda 等模式相似的競爭對手,GMI Cloud 在技術(shù)、服務(wù)以及定價(jià)策略上,最核心的優(yōu)勢是什么?
Alex:CoreWeave 和 Lambda 都是非常值得尊敬的友商。CoreWeave 主要專注于 Training 和超大規(guī)模集群,客戶集中度很高,Microsoft 和 OpenAI 占了很大比例,但在推理層面,比如按秒計(jì)費(fèi)、全球多點(diǎn)部署(特別是亞洲),他們目前涉及較少。Lambda 的優(yōu)勢在于 Container 和租賃本身,但在模型層的適配上做得相對少一些。
GMI Cloud 的打法是提供 Vertical Stack(垂直全棧)的能力。我們不僅提供裸金屬做訓(xùn)練,還提供 Inference Engine,支持按 Token 計(jì)費(fèi)。這就好比我們既賣“面粉”(算力),也賣“面包”(API)。無論客戶是需要裸金屬做訓(xùn)練,還是作為創(chuàng)作者只需要調(diào)用 DeepSeek 或 Qwen 的 API,我們都能提供。而且我們在視頻模型的優(yōu)化上下了很大功夫,提供了 Video 相關(guān)的垂直服務(wù),這是目前很多競品還沒覆蓋到的。
不只是“套殼”,是底層優(yōu)化
硅星人:你們的 Inference Engine 平臺,和很多公司都有類似的業(yè)務(wù)。你們的核心附加值到底是什么?
Alex:這問到了點(diǎn)子上。主要有兩個(gè)核心區(qū)別,全球化能力和對底層硬件的掌控力。
據(jù)我了解,國內(nèi)同類廠商的算力主要集中在國內(nèi),如果是做 AI 出海應(yīng)用,會(huì)遇到明顯的延遲問題。GMI Cloud 的節(jié)點(diǎn)遍布全球,能解決出海客戶的地理位置痛點(diǎn)。
更重要的是,我們擁有自己的物理算力(Own Hardware),而不是純粹的 Serverless API 聚合商。如果你去租阿里云或火山引擎,通常拿到的是 VM(虛擬機(jī)),很難做底層的“騷操作”來優(yōu)化 GPU 集群的通信和推理效率。因?yàn)槲覀儞碛械讓拥?GPU 卡,我們可以控制到 Bare Metal 甚至底層防火墻級別。只有控制硬體,才能把成本壓下去,同時(shí)把性能提上來。這就是為什么我們能比原生平臺跑得更快、更便宜。
硅星人:作為 NVIDIA 的 Reference Platform NVIDIA Cloud Partner,除了能優(yōu)先拿到新卡,這個(gè)身份還帶來了哪些“看不見”的好處?
Alex:這個(gè)認(rèn)證確實(shí)不僅是拿卡那么簡單。我們在研發(fā)層面與 NVIDIA 有非常緊密的 Bi-weekly Catch-up(雙周技術(shù)會(huì)議)。
舉個(gè)具體的例子,我們正在推進(jìn)全亞洲第一個(gè) GB300 液冷萬卡集群的建設(shè)。這種級別的集群建設(shè),業(yè)內(nèi)幾乎沒有先例可循,難度非常大。NVIDIA 的團(tuán)隊(duì)會(huì)直接介入,幫我們一起調(diào)整參數(shù)、建設(shè)部署。
這種從 Confidential Computing 到 Infiniband 網(wǎng)絡(luò)層面的深度技術(shù)支持,是我們能搞定這種超大規(guī)模集群的關(guān)鍵。此外,能提前接觸到像 Rubin 這樣下一代架構(gòu)的信息和 Demo,也讓我們在技術(shù)規(guī)劃上能搶占先機(jī)。
硅星人:我們看到市場正出現(xiàn) NVIDIA 之外的專用 AI 芯片(ASIC)。GMI Cloud 的長期硬件戰(zhàn)略,是會(huì)繼續(xù)深度綁定 NVIDIA,還是會(huì)擁抱一個(gè)更多元化的算力底層?
Alex:這是一個(gè)基于理性和時(shí)間的考量。目前光是適配 NVIDIA 的迭代——從 H100 到 H200 再到 Blackwell,以及 CUDA 的升級,就已經(jīng)消耗了我們大量的人力資源。
再加上模型層也在瘋狂迭代,像 DeepSeek、Qwen、Wan 這些新模型層出不窮。光是做好 NVIDIA 架構(gòu)下的模型適配就已經(jīng)很難了。所以短期內(nèi),我們會(huì)集中精力把英偉達(dá)芯片資源做深。當(dāng)我們的規(guī)模擴(kuò)展到一定程度后,可能會(huì)組建獨(dú)立的團(tuán)隊(duì)去探索新的硬件生態(tài)。
硅星人:GMI Cloud 的容器化服務(wù),與傳統(tǒng) GPU 租賃有什么不同?這些 PaaS/MaaS 層的服務(wù),為客戶帶來的最終業(yè)務(wù)價(jià)值是什么?
Alex:傳統(tǒng)的容器服務(wù)只是給你一張卡租多少時(shí)間。而我們的 MaaS 服務(wù)是經(jīng)過深度優(yōu)化的。
根據(jù)第三方平臺的對比,我們的 API 相比其他提供商有 2.4 倍到 3 倍的提速。這背后的技術(shù)包括 GPU 并行計(jì)算(Parallelism),讓我們能在多個(gè)節(jié)點(diǎn)間高效分配推理任務(wù);以及自動(dòng)擴(kuò)縮容(Auto-scaling)和顯存訪問優(yōu)化。最終給客戶帶來的價(jià)值就是:速度更快,成本更低。
算力還不是大宗商品,機(jī)器壞掉是不會(huì)挑日子的
硅星人:在你們與歐洲 AI 音樂平臺的合作案例中,提到了“聯(lián)合工作小組”進(jìn)行調(diào)優(yōu)。隨著客戶群擴(kuò)大,你們將如何 Scale 這種定制化能力?
Alex:這種深度模式目前主要針對重點(diǎn)客戶(Key Accounts)。這其實(shí)是一個(gè)互補(bǔ)和共同成長的過程。
比如我們有一個(gè)案例,客戶同時(shí)使用 Qwen 和 DeepSeek 兩個(gè)模型。他們擅長調(diào)優(yōu) Qwen,我們擅長調(diào)優(yōu) DeepSeek。于是我們決定 Share Repo(共享代碼庫),把各自優(yōu)化的節(jié)點(diǎn)和加速經(jīng)驗(yàn)共享出來,避免重復(fù)造輪子。通過這種深度合作,我們能將 GPU 集群的穩(wěn)定性調(diào)得非常高,通過降低故障率和優(yōu)化 Checkpointing,讓客戶的訓(xùn)練速度提升了 20%。
雖然這是高接觸服務(wù),但我們在合作中學(xué)到的技能,比如特定 Video 模型的優(yōu)化,會(huì)沉淀下來,標(biāo)準(zhǔn)化后服務(wù)于更多同類客戶。這本身也是我們在打磨產(chǎn)品。
硅星人:單純的 GPU 租賃利潤會(huì)越來越薄。GMI Cloud 計(jì)劃如何通過構(gòu)建自己的軟件和服務(wù)生態(tài),來避免陷入低利潤的“算力紅海”?
Alex:很多人認(rèn)為算力最終會(huì)變成 Commodity(大宗商品),但至少目前來看,它還不是。
在這個(gè)行業(yè),即使你買了 GPU,如果網(wǎng)絡(luò)服務(wù)和穩(wěn)定性做不好,客戶是沒法用的。我們見過有廠商機(jī)器經(jīng)常斷網(wǎng),或者周末找不到人維護(hù)。但你知道,機(jī)器壞掉是不會(huì)挑日子的。所以,服務(wù)品質(zhì)和集群穩(wěn)定性本身就是極高的壁壘。口碑越好,客戶越多。
另外,規(guī)模(Scale)也是壁壘。現(xiàn)在能提供 8 卡、16 卡集群的廠商一抓一大把,但能提供單一集群 2000 卡甚至萬卡級別的廠商非常少。隨著模型越來越大,客戶對大規(guī)模集群的需求在增加,這實(shí)際上是在進(jìn)行一場去蕪存菁的行業(yè)洗牌。只有具備大規(guī)模交付和服務(wù)能力的廠商才能在紅海中生存下來。
硅星人:從行業(yè)視角看,先租后買(Buy-to-Own)在 AI 算力采購版圖中的位置是什么?它會(huì)走向主流嗎?
Alex: 它不會(huì)是全市場的主流,而是服務(wù)于特定階段、比較成熟的客戶。這類客戶通常愿意簽 3 年以上的長約,他們算過賬,認(rèn)為付完 3 年租金后,資產(chǎn)折舊也差不多了,希望能擁有資產(chǎn)的所有權(quán)。這是針對特定高端需求的一種靈活服務(wù)。
硅星人:與服務(wù)本土企業(yè)相比,服務(wù)海外企業(yè)和 AI 出海企業(yè)對你們的技術(shù)、服務(wù)和全球化能力提出了哪些不同的要求?
Alex: 中國出海企業(yè)通常有三個(gè)核心需求:1、成本可控的混合架構(gòu):出海初期預(yù)算有限,需要高性價(jià)比。2、用戶體驗(yàn):落地到日本、東南亞或北美時(shí),需要當(dāng)?shù)氐墓?jié)點(diǎn)來保證低延遲。3、中文服務(wù)與合規(guī):我們能提供普通話服務(wù),同時(shí)解決當(dāng)?shù)氐暮弦?guī)問題。
硅星人:目前來看,哪些行業(yè)對你們的 GPU 云服務(wù)需求最旺盛?能分享一兩個(gè)最有意思的應(yīng)用案例嗎?
Alex:目前看最火的三個(gè)賽道是:AI Software Copilot(編程輔助)、Image & Video Generation(圖像視頻生成)和 AI Companions(AI 陪伴)。
最有意思的一個(gè)案例是我們有個(gè)做 Video 的客戶。他們的產(chǎn)品發(fā)布后瞬間爆火,算力需求在 1 個(gè)月內(nèi)翻了 8 倍。我們必須在極短時(shí)間內(nèi)幫他們完成極速擴(kuò)容,從幾百卡瞬間擴(kuò)到幾千卡。
這對我們的供應(yīng)鏈和調(diào)度能力是巨大的考驗(yàn),但我們也因此贏得了客戶的極度信任。這也帶來了一個(gè)“甜蜜的負(fù)擔(dān)”,我們的卡經(jīng)常處于售罄狀態(tài),需要在 Capacity(產(chǎn)能)和 Demand(需求)之間不斷玩“蹺蹺板”游戲。
只做“出海”與“本地化”
硅星人:在亞洲市場(如中國大陸、東南亞、東北亞),你們的布局和競爭策略是什么?
Alex:我們在不同市場的打法非常明確。
在中國大陸,我們不碰本土 GPU 業(yè)務(wù),只做“出海服務(wù)”。幫助中國企業(yè)落地東南亞、日本和北美。中國出海企業(yè)有三個(gè)核心需求:成本可控的混合架構(gòu)、低延遲的用戶體驗(yàn)(Local 節(jié)點(diǎn)),以及中文服務(wù)與合規(guī)。我們在亞太某些地區(qū),因?yàn)橛斜镜毓?jié)點(diǎn),解決了很多金融或 IC 設(shè)計(jì)公司在 AWS/GCP 上找不到本地算力的痛點(diǎn)。
在東北亞,我們已經(jīng)拿下了日本第二大電力公司作為客戶,并組建了日本團(tuán)隊(duì),提供從 GPU 到模型管理的一條龍服務(wù),服務(wù)本土大客戶和出海落地的客戶。
在東南亞,我們有豐富的機(jī)房 partner 資源,幾乎可以做到快速幫國內(nèi) AI 應(yīng)用出海企業(yè)快速拉到資源。
硅星人:去年的 A 輪融資取得了哪些關(guān)鍵進(jìn)展?基于這些成果,公司對下一輪融資有何規(guī)劃?
Alex:A 輪資金主要用于獲取 NCP 認(rèn)證和建設(shè)早期的千卡/萬卡集群。這一年的成果是顯著的,我們拿到了 NVIDIA 的核心認(rèn)證,建設(shè)了萬卡規(guī)模的算力,并贏得了投資人和客戶的認(rèn)可。
對于 B 輪融資,我們預(yù)計(jì)規(guī)模是 2 億美金,預(yù)計(jì)本年底就可以 Close。這筆資金將主要用于建設(shè) AI Factory,將我們的集群規(guī)模在現(xiàn)有基礎(chǔ)上翻倍甚至翻三倍,特別是在北美、日本和臺灣地區(qū)的擴(kuò)容。
巨石、鵝卵石和沙
硅星人:你覺得未來兩三年,GPU 云算力這個(gè)市場,最大的機(jī)會(huì)和挑戰(zhàn)會(huì)是什么?
Alex:最大的挑戰(zhàn)絕對是電力。真的不夠用。
我們最早找機(jī)房時(shí)只需半兆瓦(0.5MW),現(xiàn)在找機(jī)房起步就是 40MW。整個(gè)規(guī)模發(fā)展非常可怕。我們現(xiàn)在做規(guī)劃已經(jīng)不是看 6 個(gè)月后,而是要直接去鎖定 2027 年的電力資源。這也迫使我們往上游走,直接跟 Hyperscalers 和電力公司合作。未來的競爭,很大程度上會(huì)是能源的競爭。
硅星人:怎么看待開源和閉源大模型的競爭?這對你們有什么影響?
Alex:我覺得開源是整個(gè)產(chǎn)業(yè)的推進(jìn)器。像今年的 DeepSeek V3 一出來,市場反應(yīng)非常熱烈,企業(yè)發(fā)現(xiàn)終于可以低成本地控制自己的數(shù)據(jù)和模型了。
以前大家覺得開源閉源差距很大,現(xiàn)在這個(gè) Gap 正在迅速縮小(Converge)。之前像 Cursor 這樣的產(chǎn)品一火,大廠馬上就能出一個(gè) Cloud Code 把它覆蓋掉,因?yàn)槌杀咎吡恕5_源模型讓大家有了反擊的機(jī)會(huì)。我有一個(gè)大膽的預(yù)測,在 Video 賽道,也會(huì)出現(xiàn)“DeepSeek Moment”。像阿里的 Wan 2.5 已經(jīng)非常強(qiáng)了,未來視頻模型也會(huì)像 LLM 一樣,出現(xiàn)一個(gè)開源的高光時(shí)刻。這對我們這種基礎(chǔ)設(shè)施廠商是巨大的利好。
硅星人:最后一個(gè)問題,我們正進(jìn)入一個(gè)“推理時(shí)代”。GMI Cloud 的理想狀態(tài),會(huì)是一個(gè)什么樣的角色?
Alex:我們不希望只做一個(gè)單純的“算力提供商”,那樣只會(huì)越做越窄。我們希望做一個(gè)可以解決 AI 應(yīng)用企業(yè)所有技術(shù)及算力需求的 Verticalized AI Service Platform(垂直化 AI 服務(wù)平臺)。
我有一個(gè)比喻,叫做 "Rock, Pebble and Sand"(巨石、鵝卵石和沙子):
Rock(巨石):像 CoreWeave 那樣,提供超大規(guī)模集群給大模型公司做 Training。
Pebble(鵝卵石):通過 K8s 和 Container,服務(wù)于需要靈活性、中等規(guī)模算力的初創(chuàng)企業(yè)。
Sand(沙子):通過 Inference Engine 提供 API 服務(wù),讓創(chuàng)作者和開發(fā)者能像抓沙子一樣,隨時(shí)隨地調(diào)用 DeepSeek、Qwen 等模型。同時(shí)針對開發(fā)者和創(chuàng)作者,我們也會(huì)孵化更多好用的服務(wù),比如 Workflow 等。
我們的終局是把這三層全部打通,從最小的 API 調(diào)用到最大的萬卡集群訓(xùn)練,提供一個(gè)全棧式的解決方案。
![]()
點(diǎn)個(gè)“愛心”,再走 吧
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.