為AI基建缺電抓狂的硅谷巨頭,開始仰望星空了。此前停留在設想階段的“太空數據中心”概念,它們開始付諸實踐。太空有近乎無限的太陽能,那里是算電協同的天堂。
本周,英偉達投資的初創公司StarCloud將其Hopper架構AI服務器送入了太空;兩天后,谷歌宣布“逐日計劃”(Project Suncatcher),旨在將TPU衛星送入軌道。
它們的遠期目標都是GW級的太空數據中心。今年英偉達的H100先上天,搭配80GB內存,在軌跑一跑谷歌開源模型Gemma;明年就輪到Blackwell架構芯片,算力容量7kW,至2027年提升至100kW;到2030年太空算力達到40MW,未來甚至擴展至5GW。谷歌的原型衛星將于2027年發射,首批兩顆,每顆衛星四個TPU,最終建成GW級的衛星星座。
在硅谷,有類似想法的不僅僅只是英偉達與谷歌。幾年前,微軟就曾醞釀與SpaceX合作Azure Space項目。去年底,OpenAI在圣誕直播中還調侃著如何設計太空數據中心。今年年中,谷歌前CEO埃里克·施密特收購了航天初創公司Relativity Space,太空數據中心構想浮出水面。此外,初創企業Axiom Space和Lonestar也躍躍欲試。
最不可忽視的大玩家,無疑是貝索斯和馬斯克二人。他們各自掌控著龐大的商業帝國,同時擁有發射能力與算力供需,最近頻頻發聲。
作為云計算巨頭亞馬遜的創始人,以及商業航天企業藍色起源(Blue Origin)的掌門人,上個月,貝索斯預測未來10到20年內,太空中的GW級數據中心將成為現實。而馬斯克的SpaceX幾乎壟斷了全球的發射市場,旗下Starlink項目本身就需要大量算力支持,更別說他還在積極布局xAI等人工智能企業。他一直把卡爾達肖夫文明等級掛在嘴邊,最近提出了五年內建成100GW規模太空算力的可能性。
把數據中心送入軌道的好處很多,現在硅谷巨頭提的最多的兩個,就是它足夠靠近發電側,也足夠靠近數據側。
幾乎每一次工業革命都伴隨著能源革命。人們已經開始在地表將陽光轉化為電力,但是,讓AI數據中心在太空中直接、徹底地利用來自太陽的能量,才是最極致的能源體系的重構。在太空建設光伏電站,。谷歌論文《邁向未來基于太空的高度可擴展人工智能基礎設施系統設計》稱,雖然公司長期致力于推進新型能源的開發,但為AI提供電力的最佳方式,很可能是更直接地利用這一巨大的能量來源,也就是太陽能。
以往,人們對太空光伏電站的設想,是把光伏電站送上太空,再把電力無線輸往地球;對數據中心低碳化的設想,則是盡可能采用來自光伏電站等的綠色電力。現在,谷歌與Starcloud選擇直接把兩個環節集成到一起,從一開始就在太空設計“算電協同”的數據中心。
Starcloud的白皮書《為何要在太空訓練人工智能》,開篇歷數太空發電的好處:電池板始終垂直于太陽光線,而地表不同地區光照資源稟賦不同;可以7X24小時發電,這也是目前地表數據中心利用綠電最大的痛點之一;還能省下儲能成本;沒有大氣阻擋,峰值發電量也比地面高出約40%。把這些好處加起來,一算,相同規模的太空電站產生的電力,將是地面的5倍多。
![]()
AI越靠近數據,越能兌現商業價值。太空已經是數據采集與傳輸的關鍵節點,越來越需要在數據側完成計算。太空發射推動了衛星服務的演化,捕捉各類模態數據的衛星越來越多,需要下行至地表數據中心處理的數據規模也越來越大;但是,近地軌道衛星高速掠過,數據下行窗口往往以分鐘計,下行帶寬無法實時回傳完整數據。這本質上是"算力等待帶寬"的經典矛盾在太空的極致體現。以合成孔徑雷達(SAR)為例,原始數據可能高達數百GB,但在軌處理后,只需下傳一個1KB的關鍵信息包。
在谷歌看來,基于太空的“算電協同”的AI基礎設施,不存在不可逾越的物理或經濟障礙。谷歌的TPU v6e承受住了太空輻射的測試,即使要讓最敏感的HBM組件出現問題,累積輻射劑量也需要達到常規折舊期限(5年)的三倍。它們會被部署于“晨昏同步近地軌道”,全天接受光照。
為實現衛星間超高速、低延遲的數據傳輸,衛星將緊密編隊飛行,并通過自由空間光學星間鏈路(FSO ISL)通信,雙向1.6Tbps;AI驅動的控制模型能使衛星編隊保持緊密的飛行間距,同時避免碰撞;最終,通過無線電或光鏈路與地面高速通信。
基于歷史數據趨勢,谷歌預測,到2035年,近地軌道(LEO)發射成本可能會低至200美元/kg(當前約為3600美元/kg),屆時地面數據中心的能源支出與在軌系統的年化成本將處于同一數量級(地面570–3000 美元/kW/年,太空810–7500美元/kW/年)。StarCloud的評估更為樂觀,發射成本在500美元/kg即可達到盈虧平衡點。
谷歌承認,即使如此,熱管理仍是重大的工程挑戰之一。它限制了發電與計算的上限。在地表的數據中心,散熱已是棘手難題;而在零下270攝氏度的太空,因真空杜絕了對流與傳導,散熱反而更加艱困,熱量只能以輻射形式散逸,效率受制于散熱表面積。
StarCloud的熱管理系統采用多重方案集成。計算模塊的熱負荷,通過直接芯片液冷或兩相浸沒式冷卻捕獲,再經多級回路輸送至散熱器。散熱器則為巨型輕質可展開結構,面積以平方公里計。
OpenAI曾在去年底用o1計算過,算力規模1GW的太空數據中心,需要配置240萬平方米的散熱器,相當于邊長為1550米的正方形,遠超國際空間站主太陽能陣列100米的跨度。當時負責監督o1演示這一計算過程的是Hyung Won Chung,他擁有MIT熱力學博士學位,認可了這一結果。
這意味著額外的發射成本。更關鍵的是,要將如此巨大的結構折疊入箭體、再于太空中無損展開,涉及到極低容錯率的工程挑戰。為此,Starcloud正攜手Rendezvous Robotics探索模塊化自主在軌裝配技術。
AI越來越熱,散熱早已不再是簡單的核心IT設備的外圍“掛件”。它正從設計的初始環節,就嵌入到芯片內部與系統控制層面,從材料、封裝到軟硬件協同,以減少熱量產生,或加快熱量釋放。初創企業Maxwell Lab甚至還提議規模化自己的光子冷卻技術,把薄膜材料(通常摻雜重稀土離子)的熱能(晶格振動)轉化成高能光子發射出去,實現熱量的轉移,理論上完全適用于太空環境。
在AI泡沫爭議四起之時,硅谷巨頭大放衛星的計劃,并非沒有招致質疑。但泡沫的破滅,亦可沉淀技術遺產。谷歌就預判,對GW級太空數據中心的追逐,也將AI基礎設施帶往一個緊密集成了計算、散熱和電源的全新架構設計。
參考:
https://lumenorbit.github.io/wp.pdf
https://goo.gle/project-suncatcher-paper
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.