![]()
2025年12月16日消息,Axios披露了OpenAI首席傳播官Hannah Wong即將離職,這為正處于高速擴張期的OpenAI,添了一抹值得琢磨的變量。
幕后操盤手
消息顯示,Wong將于2026年1月底正式離任,她的5年任期,剛好覆蓋了OpenAI從行業新銳,成長為全球AI領軍者的關鍵歷程。
2021年從蘋果離開加入時,她面對的還是一個沒被大眾熟知的技術團隊;離開之際,OpenAI已經靠ChatGPT、Sora等產品,重塑了全球科技產業的格局。
在LinkedIn的離職感言里,Wong說這段經歷“充實又意義非凡”,她最自豪的,是參與講述了OpenAI的成長故事、推介了革命性的AI產品,還有把那些為通用人工智能(AGI)鋪路的從業者的故事,帶到了公眾面前。
甚至可以說,Wong用5年時間完成了一場非凡的“敘事構建”。
她從零搭建起OpenAI的全球傳播體系,將這家彼時仍帶著非營利實驗室底色的技術團隊,推向了全球AI浪潮的中心。
她是ChatGPT橫空出世的幕后操盤手之一,通過精準的媒體調度讓這款產品5天收獲百萬用戶,創下消費互聯網增長紀錄。
更是2023年“奧爾特曼罷免風波”中的危機掌舵人,以凌晨三點發布內部信、協調員工聯名發聲、統籌復職后首次公開采訪等一系列操作,為公司穩住輿論陣腳,被《時代》雜志評為“AI危機公關教科書”。
在她的統籌下,OpenAI的傳播邊界不斷拓展,涵蓋媒體關系、品牌設計、社群運營乃至人才合作,甚至將GPT-4發布會搬進白宮,實現了AI技術與主流政治語境的首次深度對接。
Wong的離開,和OpenAI正在經歷的轉型陣痛,其實是全球AI行業發展的一個縮影,剛好能幫我們看清行業未來的機遇,也明確風險防控的核心方向。
她的5年,攤開來看,就是AI變局的鮮活切面。她的到來,接住了OpenAI技術破圈的第一波聲量;她的堅守,扛住了AI行業震蕩的公關風暴;她的離開,恰逢AI行業從狂熱轉向理性的拐點。
關鍵時刻
從行業趨勢來看,AI技術正從“封閉競賽”轉向“開放與封閉的平衡”。
2025年用開放權重技術的企業,占比從3年前的17%漲到了43%,OpenAI的半開源策略,既守住了核心數據的控制權,又降低了開發者的門檻,已經成了行業的主流選擇。
同時多模態交互成了技術突破的核心,Sora這類產品的迭代,讓AI從生成文本、圖像,升級到了模擬復雜視頻,直接推動創意產業迎來了新的增長期。
值得關注的是,OpenAI當前正全力推進三大核心任務,也就是要聯合微軟、英偉達等伙伴籌建“星際之門”基礎設施聯盟,計劃2026年前投入1.4萬億美元,在美國5個州新建20座千兆瓦級數據中心,為GPT-5及視頻模型Sora的迭代筑牢算力根基。
此外,OpenAI還在加速產品矩陣商業化,Sora將于2025年一季度向企業開放API,下一代推理模型“Orion”數學基準已逼近人類奧賽金牌線;啟動大規模組織重組,聘請高盛、摩根士丹利研究直接上市可行性,目標2027年前完成掛牌,估值向3000億美元沖刺。
這一系列動作背后,是OpenAI對核心價值的精準把握,從單純的技術領先,轉向定義AI生態、制定行業標準、搶占人機交互終極入口的全球化平臺。
而放眼整個行業,競爭早已從單一的模型性能比拼升級為全維度生態戰爭,Meta的Llama系列開源模型緊追不舍,谷歌在多模態領域持續發力,中國的百度、字節等廠商也在積極搶占市場,全球AI巨頭圍繞開發者工具、算力網絡、人才體系的博弈日趨白熱化。
與此同時,商業化與監管正進入“雙軌提速”階段,AI技術快速滲透各行業的同時,歐盟《人工智能法案》的嚴格監管、美國聯邦與州的合規博弈、中國側重內容標識的監管體系,共同構成了AI企業必須跨越的全球化合規門檻。
多重暗礁
OpenAI的戰略擴張與人事變動,本質上是全球AI行業發展階段的縮影,機遇與風險在這一節點形成尖銳交織。
從市場機會來看,全球企業級AI預算2025年將達2800億美元,其中40%流向“生成式+搜索”、25%投向“生成式+客服”。
OpenAI憑借插件生態與微軟Teams、Copilot的深度捆綁,已鎖定逾一半的財富500強年度合同,底層基礎設施、模型即服務(MaaS)、垂直行業應用及AI治理伴生服務等多個賽道均呈現爆發潛力。
不過,光鮮背后,多重風險暗礁已然浮現。
內部層面,治理結構的脆弱性已在去年的內亂中暴露,未來在上市壓力、巨額資本涌入下,商業目標與安全使命的沖突可能再度引發動蕩。
人才流失風險不容忽視,Wong這樣兼具技術邏輯與頂級品牌經驗的復合型人才難以復制,其繼任者能否延續穩定且有溫度的敘事風格,直接影響公司公眾信任度。
技術瓶頸也日漸清晰,高質量公開文本預計2026年耗盡,合成數據能否維持規模定律仍是未知數。
外部挑戰則更為嚴峻,1.4萬億美元基建所需的15吉瓦清潔能源相當于全美現有光伏裝機的20%,環評與電網接入周期可能拖慢技術迭代。
此外,地緣政治風險持續升溫,中東資金入股已觸發美國外資審查,基礎模型若被認定為關鍵基礎設施,可能被迫剝離海外股東。
監管罰單的達摩克利斯之劍始終高懸,歐盟對通用AI模型的風險分級監管,違規最高可處以全球年營業額7%的罰款。
對于OpenAI而言,不再是“如何做出更好的模型”,而是如何在技術創新、商業變現與風險防控之間找到平衡,講述一個關于責任、平衡與可持續成長的關鍵發展階段。
而這一命題,同樣是整個AI行業邁向成熟的必經之路。
當技術的狂熱逐漸降溫,商業的理性開始回歸,所有AI企業都要面對相似的抉擇,是追求短期的流量與估值,還是堅守長期的技術倫理與社會價值;是依賴單一的技術優勢,還是構建可迭代的生態壁壘;是只關注技術的突破速度,還是兼顧監管的邊界、公眾的信任與行業的可持續增長。
這不僅是OpenAI的轉型考題,更是全球AI產業從“野蠻生長”轉向“穩健發展”的集體必修課。
敬告讀者:本文基于公開資料信息或受訪者提供的相關內容撰寫,不慌實驗室及文章作者不保證相關信息資料的完整性和準確性。無論何種情況下,本文內容均不構成投資建議。市場有風險,投資需謹慎!未經許可不得轉載、抄襲!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.