2026年 3月18日--負責支持和保護網絡生活的云服務提供商阿卡邁技術公司(Akamai Technologies, Inc.,以下簡稱:Akamai)(NASDAQ:AKAM)近日宣布在人工智能演進過程中達成的一個重要里程碑:發布首個全球規模的 NVIDIA? AI Grid 參考設計實施方案 。通過將 NVIDIA AI 基礎設施集成到 Akamai 的架構中,并利用網絡層面的智能工作負載編排,Akamai 旨在推動行業從孤立的 AI 工廠邁向統一、分布式的 AI 推理網格 。
此舉標志著去年底推出的Akamai Inference Cloud在演進中邁出重要一步 。作為首家實現AI網格運營化的公司,Akamai 正部署數千個基于NVIDIA RTX PRO 6000 Blackwell 服務器版 GPU的平臺,為企業提供能夠運行智能體和物理AI的解決方案,同時兼具本地計算的響應速度和全球網絡的規模優勢。
“AI 工廠是為訓練和前沿模型工作負載而構建的,中心化基礎設施將繼續為這些場景提供最佳的‘Token經濟’ (tokenomics),”Akamai 云技術事業部首席運營官兼總經理 Adam Karon 表示 。“但實時視頻、物理 AI 和高并發個性化體驗要求推理需要在接觸點進行,而不是往返中心化集群。我們的 AI Grid 智能編排為 AI 工廠提供了一種向外擴展推理的方式——利用革新了內容分發的分布式架構,在 4,400 個站點以合適的成本和時間路由 AI 工作負載” 。
“Token經濟”的架構
AI Grid 的核心是一個智能編排器,充當 AI 請求的實時代理 。通過將 Akamai 在應用性能優化方面的專業知識應用于 AI,這個具備工作負載感知能力的控制平面可以通過顯著改善每個Token的成本、首個Token時間和吞吐量來優化“Token經濟” 。
Akamai 的主要優勢在于,客戶可以通過其龐大的全球邊緣節點網絡,訪問經過微調或稀疏化的模型,這為長尾 AI 工作負載提供了巨大的成本和性能優勢 。例如:
·規模化成本效率:企業可以通過自動將工作負載與合適的計算層匹配,大幅降低推理成本 。編排器應用語義緩存和智能路由技術,將請求導向規模合適的資源,為高端任務保留優質 GPU 周期 。Akamai Cloud 基于開源架構,提供慷慨的出站流量額度,以支持大規模數據密集型 AI 操作。
·實時響應能力:游戲工作室可以提供毫秒級延遲的 AI 驅動型 NPC 交互,維持玩家沉浸感 。金融機構可以在登錄到首屏之間的瞬間,執行個性化欺詐檢測和營銷推薦 。廣播公司可以為全球觀眾實時轉碼和配音 。這些成果得益于 Akamai 覆蓋 4,400 多個站點的分布式邊緣網絡,通過集成緩存、無服務器邊緣計算和高性能連接,在用戶接觸點處理請求,繞過了中心云的往返延遲 。
·核心節點的生產級 AI:大型語言模型、持續后訓練和多模態推理工作負載需要專用基礎設施提供的持續高密度計算 。Akamai 擁有數千個基于 NVIDIA RTX PRO 6000 Blackwell 服務器版 GPU 的集群,為最重的工作負載提供集中算力,與分布式邊緣形成補充 。
計算連續體:從核心到遠端邊緣
基于NVIDIA AI Enterprise、Blackwell 架構和NVIDIA BlueField DPU,Akamai 能夠管理跨邊緣和核心位置的復雜服務等級協議 :
·邊緣 (4,400+ 個站點):為物理 AI 和自主智能體提供極速響應 。它利用語義緩存和 WebAssembly 等服務器端功能(Akamai Functions 和 EdgeWorkers)提供模型親和性和穩定的性能 。
·Akamai Cloud IaaS 與專用 GPU 集群:核心公有云基礎設施支持大規模負載的遷移與成本節約,而 Blackwell GPU 陣列則助力繁重的后訓練和多模態推理 。
NVIDIA 電信業務發展全球副總裁 Chris Penrose 表示:“新型 AI 原生應用要求在全球范圍內實現可預測的延遲和更高的成本效率 。通過將 NVIDIA AI Grid 投入運營,Akamai 正在構建生成式、代理式和物理 AI 的連接紐帶,將智能直接帶到數據所在地,開啟下一波實時應用潮” 。
賦能下一波實時 AI
Akamai Inference Cloud 已在計算密集型和延遲敏感型行業獲得強勁的早期應用 :
·游戲:工作室正部署亞 50 毫秒級推理,用于 AI 驅動型 NPC 和實時玩家交互 。
·金融服務:銀行依靠該網格在客戶登錄的關鍵時刻進行超個性化營銷和快速推薦。
·媒體與視頻:廣播公司利用分布式網絡進行 AI 驅動的轉碼和實時配音 。
·零售與商業:零售商在門店 AI 應用和銷售點生產力工具中采用該網絡 。
在企業需求驅動下,該平臺已獲得主要技術提供商的認可,包括一份為期四年、價值 2 億美元的服務協議,用于專為在城市邊緣企業 AI 基礎設施的數據中心內部署數千個 GPU 集群 。
將 AI 工廠從集中式擴展到分布式
第一波 AI 基礎設施由少數幾個中心化地點的海量 GPU 集群定義,旨在優化訓練 。但隨著推理成為主導負載,且企業專注于構建 AI 代理,中心化模型面臨著與早期互聯網基礎設施在媒體交付、在線游戲和金融交易中遇到的相同的擴展約束 。
Akamai 正通過相同的基本方法解決這些挑戰:分布式網絡、智能編排和專用系統,使內容和上下文盡可能靠近數字觸點。其結果是改善了用戶體驗并增強了投資回報率。Akamai Inference Cloud 將這一成熟架構應用于 AI 工廠,通過將高密度計算從核心分發到邊緣,開啟下一波增長。
對于企業而言,這意味著能夠部署具備上下文感知能力且響應靈活的 AI 代理。對于行業而言,這代表了一個藍圖,展示了 AI 工廠如何從孤立設施演變為全球分布式的公共設施。
可用性
Akamai Inference Cloud 現已面向符合條件的企業客戶開放。了解更多及申請訪問請點擊Akamai官網。Akamai 代表將在 NVIDIA GTC 2026(3月16-19日,圣何塞會議中心 621 號展位)提供演示和會面。
關于 Akamai
Akamai 是一家致力于支持并保護網絡生活的網絡安全和云計算公司。我們卓越的安全解決方案、出色的威脅情報和全球運營團隊可提供深度防御,保護各地的企業數據和應用程序。Akamai 的全棧云計算解決方案可在全球分布廣泛的平臺上提供高性能和經濟實惠的服務。全球多家企業堅信,Akamai 能夠提供卓越的可靠性、規模和專業知識,幫助企業滿懷信心地實現業務增長。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.