全文 3,000字 | 閱讀約 8 分鐘
![]()
(Eric Schmidt最新預言:接下來10年決定未來100年)
2025 年,AI 世界正被無形的張力撕扯:
一邊是模型參數的激增,一邊是系統資源的極限。
大家都在問:GPT-5、Claude 4、Gemini 2.5 誰更強?但前谷歌 CEO Eric Schmidt (埃里克·施密特) 在 2025 年 9 月 20 日的公開演講中提出了更深層的洞察:
“AI 的到來,在人類歷史上,等同于火、電的發明。而接下來的 10 年,將決定未來 100 年的格局。”
他不是在講模型性能,也不是 AGI 的遠近,而是在說:
AI 不再是提升工具效率,而是重新定義商業運作方式。
與此同時,在硅谷知名投資機構 a16z 的一場對話中,芯片分析師 Dylan Patel 指出:
“夸張的說,現在搶 GPU 就像搶‘毒品’一樣,你要托關系、找渠道、搶配額。但這不是重點,真正的競爭是誰能構建出支撐 AI 的一個完整體系。”
兩人的觀點指向同一個發展趨勢:
參數不是邊界,電力是邊界;
模型不是護城河,平臺才是護城河;
AGI 不是目的,落地才是關鍵
如果說過去三年,AI 的主線是能力爆發;
那接下來十年,主線就是基礎建設。
第一節|AI 不再是工具升級,而是系統重構
在這場對話里,Eric Schmidt 開門見山地說:
“AI 的到來在人類歷史中,和電、火的發明處于同一等級。”
他不是在強調 AI 有多聰明,而是在提醒大家:我們熟悉的工作方式、管理模式、賺錢方法,都可能要徹底改變。
不是讓 AI 幫你寫得更快, 而是讓 AI 決定該怎么寫。
Schmidt 說,現在最強的 AI 工具,已經不再是一個助手了,而是正在變成:
一種全新的基礎設施,就像電網一樣,成為所有組織的標準配置。
這一句話,直接顛覆了過去幾年人們對 AI 的看法。
換句話說,這不是個人技能提升或團隊效率優化,而是整個組織運轉方式的根本改變:
決策方式變了,AI 參與思考;
寫作、編程、客服、財務都有了 AI 搭檔;
數據輸入、結果評估、反饋機制都被 AI 重新設計。
這種全面的組織變革讓 Schmidt 意識到,不是預先制定詳細流程,而是在實際應用中讓 AI 逐步適應和優化。
據他介紹,自己目前參與的幾家創業公司都采用了這種方法,不是先做完整規劃,而是讓 AI 直接參與工作,在實踐中不斷調整和完善。
所以他講的,不是模型更強了,而是組織要不要轉向 AI 原生的新形態。
AI 正在從工具,變成企業運營的基礎設施。
第二節|限制 AI 發展的,是電力
過去我們總以為,AI 的能力發展,會被技術卡住:
芯片性能不夠,模型算不動;
算法太復雜,推理速度太慢。
但 Eric Schmidt 說,真正限制 AI 發展的不是技術參數,而是電力供應。
他提到一個具體數據:
“到 2030 年,美國需要新增 92GW 電力,才能支撐數據中心的需求。”
什么概念?
一個大型核電站,功率也不過 1 到 1.5GW。
92GW,相當于幾十座核電站的發電量。現實卻是:美國當前在建核電站,基本是零。
這意味著,未來問題不是模型技術不夠先進,而是電力供應跟不上訓練需求。
Schmidt 甚至對國會說過一個令人意外的例子:他們可能需要在海外訓練美國自己的模型,比如在中東國家的發電基地。
![]()
(Sam Altman 剛剛發布博客:《智能時代的無限可能》)
這種對電力的渴求并非危言聳聽。就在 9 月23 日,OpenAI CEO Sam Altman 剛剛發布博客,提出了一個更激進的方向:我們希望建造一種工廠,每周新增 1GW 的 AI 算力設施,用電規模堪比一座城市。
他明確指出,這將需要芯片、電力、機器人、建筑等多個系統的協同突破。
用他的話說:“一切都始于計算。”
Altman 的這個目標,不是遠景展示,而是正在布局的基礎建設。它正是 Schmidt 所說“AI 將成為新電網”的現實化路徑。
事實上:
模型訓練本身并不貴,真正的成本是電力消耗、運行時間和設備維護。
隨著推理任務越來越多,生成內容越來越復雜(圖像、視頻、長文本),AI 工廠的電量需求正變成新的算力瓶頸。
Dylan Patel 在另一場對話中也提到,搭建 AI 系統時,不僅要考慮芯片有多快,還要考慮散熱、電費、穩定性。他說得更形象:
“AI 工廠不是買一堆 GPU 就行,還要考慮電能調度和持續運行能力。”
所以這不是芯片問題,而是電力跟不跟得上的問題。
而當電力無法滿足時,連鎖反應就來了:
模型不能訓練;
推理成本升高;
AI 工具無法大規模部署;
最終失去落地的可能性。
Schmidt 認為,基礎設施跟不上是目前 AI 落地面臨的最大現實挑戰。沒有足夠能源支撐,再領先的模型能力也用不起來。
因此,AI 的下一個戰場不在實驗室,而在發電廠。
第三節|不是誰有芯片,而是誰能把它們用起來
而即便電力解決了,問題還沒完。你真的能把這些芯片、模型、任務,全都運行起來嗎?
很多人以為,只要拿到 H100、B200 這些最先進的芯片,AI 工廠就建成了。
但 Dylan Patel 一上來就潑了冷水:
“現在 GPU 非常緊缺,要發短信到處問'你有多少貨?什么價格?”
他接著說:
“但光有芯片還不夠。核心是要讓它們有效協作。”
也就是說,芯片本身只是一個部件,真正決定 AI 工廠能否持續運行的,是你有沒有能力把這些芯片整合起來運行。
他將這種整合能力分為四個層面:
算力底座:GPU、TPU 等硬件基礎;
軟件棧:訓練框架、調度系統、任務分配器;
冷卻與電力管理:不只是有電,還要把溫度、負載、電費控制好;
工程能力:誰來優化模型、調優算力、控制成本。
這就是 Dylan 所說的“AI 工廠”的核心:AI 工廠不是一個模型、也不是一張卡,而是一整套連續的工程調度能力。
你會發現,AI 工廠不僅需要大量算力,更需要復雜的工程配合:
一堆 GPU 是“原材料”;
軟件調度是“控制室”;
冷卻和電力是“水電工”;
工程團隊是“維修組”。
簡單來說,重心已經從“造模型”轉向了“建基礎設施”。
Dylan 觀察到一個有趣的現象:你看現在的芯片公司,不只是賣卡了,而是開始“包施工”了。Nvidia 開始幫客戶整合服務器、配置冷卻、搭建平臺,自己就成了平臺。
![]()
(圖源:路透社報道)
這場訪談發布的同一天,Nvidia 與 OpenAI 公布了一項未來合作意向:Nvidia 將為 OpenAI 提供最多 10GW 級別的數據中心資源,投資規模可能達到數 1000 億美元。
Sam Altman 在聲明中說了一句話,恰好印證了上面這個邏輯:
計算基礎設施將是未來經濟的基礎。Nvidia 不只是賣卡、供芯片,更是和他們一起部署、建設、運營整個 AI 工廠。
這說明了一個趨勢:真正有能力形成閉環的,不是最聰明的人,而是最懂如何落地的人。
也就是:
能造出模型,是一回事;
能讓模型每天穩定運行,是另一回事。
AI 不再是買來就能用的產品,而是需要持續運營的復雜工程系統。關鍵是你有沒有長期運營這套系統的能力。
第四節|AI 能力擴散成趨勢,競爭焦點在哪?
當大家還在爭奪運營能力時,新的變化已經出現了。
AI 模型做得越來越好,越來越聰明,但 Eric Schmidt 提了個警告:
“我們無法阻止模型蒸餾。幾乎任何一個能訪問 API 的人,都能復制它的能力。”
什么是蒸餾?簡單說:
大模型雖然能力強,但部署成本太高;
研究者會用它來訓練一個小模型,讓小模型模仿它的思考方式;
成本低、速度快、精度高、難以追蹤。
就像你沒辦法復制一個頂級廚師,但可以通過他做出來的菜,教會另一個人做出八成相似的效果。
問題就來了:能力越容易被轉移,模型本身越難被限制。
![]()
(Dylan Patel,知名芯片行業分析師,專注AI基礎設施研究)
Dylan Patel 也提到一個行業趨勢:
現在蒸餾成本,只占原始訓練的 1% 左右,卻能復現原模型 80-90% 的能力。
即使 OpenAI、Google、Anthropic 把模型保護得再嚴密,也擋不住有人通過蒸餾獲得相似能力。
以前大家比的是誰更強;現在開始擔心誰還控制得住?
Schmidt 在訪談里說:最大的模型將永不開放。而小模型的擴散,將不可避免。
他不是在鼓吹封閉,而是在提醒一個現實:技術擴散的速度,可能遠快于治理跟上的節奏。
舉個例子,現在已有不少團隊用 GPT-4 的 API,去蒸餾出一個 GPT-4-lite:
成本低,易部署;
基本對外沒有明確標識;
用戶用起來感覺幾乎一樣。
這就帶來一個難題:模型的能力,可能會像“空氣”一樣擴散;但模型的源頭、責任歸屬、使用邊界,都很難界定清楚。
Schmidt 真正擔心不是模型太強,而是:
“當越來越多的模型具備強能力,卻不受監管、難以溯源、責任不清,我們該如何確保 AI 的可信度?”
這種現象已經不是假設,而是當前的現實。
隨著 AI 能力擴散已經成為不可逆轉的趨勢。單純擁有先進模型不再是護城河。競爭的焦點已經轉向了如何更好地運用和服務這些能力。
第五節|平臺的關鍵,是越用越準
所以最終,比能不能造出來更重要的是:你能不能構建出一個越用越好的平臺?
Eric Schmidt 給出了他的答案:
“未來成功的 AI 公司,不只拼模型性能,更要拼持續學習的能力。”
通俗說就是:你不是一次性做出一個產品就完事,而是建一個平臺,讓它用得越多越聰明、越用越好用、越用越穩定。
他進一步解釋:
平臺的核心不是功能,而是讓別人離不開你。
比如:
電網不是因為燈泡亮,而是因為能讓所有燈都亮;
操作系統不是因為功能多,而是能讓一批應用穩定運行;
AI 平臺也一樣,不是做出某個智能助手,而是讓別的團隊、用戶、模型都能接入、調用、增強。
AI 平臺不是某個功能,而是一套持續運轉的服務網絡。
他還建議年輕創始人:不要只問這個產品做得完美不完美。要看它有沒有形成一條“用 → 學 → 優化 → 再用”的路徑。
因為:能持續學習的平臺,才有長期生存的可能。
Dylan Patel 補充說,這其實也是 Nvidia 成功的路徑。黃仁勛做了三十年 CEO,靠的不是運氣,而是不斷把芯片和軟件綁成閉環:客戶用得越多,他就越了解客戶想要什么;越了解需求,產品就越好用;產品越好用,客戶就越難放棄。
這樣就形成了良性循環,越用越值。
不是“發布即巔峰”,而是能夠持續成長的平臺。
Schmidt 總結得很清晰:你能不能構建出這樣一個增長機制?一開始可能很小,但它能不斷適應、不斷擴展、不斷更新?
他對未來 AI 平臺成功者的判斷是:
不是你寫了什么代碼,而是你能不能讓一個平臺活下來,而且越活越強。
結語|誰先形成閉環,誰贏未來
Eric Schmidt 在訪談中說:
“AI 就像電與火,這 10 年,將決定未來 100 年。”
AI 的能力已經準備好了,但往哪走、怎么搭、怎么用還沒想清楚。
現在的重點不是等下一代模型,而是把現有 AI 用起來、用得好。別總想著 GPT-6/DeepSeek R2 什么時候出,先把手頭的工具在客服、寫作、數據分析等場景中跑通。讓 AI 能 24 小時穩定工作,而不是只在發布會上驚艷一下。
這不是聰明人的比賽,而是執行力的較量。
誰能率先把 AI 從實驗室帶到現實,誰就掌握了未來十年的主動權。
而這場“閉環之爭”,從現在就已經開始。
本文由AI深度研究院出品,內容基于Eric Schmidt(前谷歌CEO)與Dylan Patel(SemiAnalysis CEO)訪談翻譯整理。未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:
https://www.youtube.com/watch?v=vvlE8-MzxyA
https://www.youtube.com/watch?v=bircUYzIlMg&t=442s
https://blog.samaltman.com/abundant-intelligence
https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com
https://techpolicy.press/transcript-us-lawmakers-probe-ais-role-in-energy-and-climate
https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.