作者 | 辰辰
出品 | 網易科技
停掉Sora,不談夢想,OpenAI現在全員沖刺“搶用戶”。
谷歌Gemini 3重壓之下,奧特曼在上周按下了“紅色警報”。根據OpenAI內部流出的備忘錄,明確要求公司從追求AGI的星辰大海中抽身,轉而專注于一個極其世俗的目標:在8周內,不惜一切代價提升ChatGPT的用戶留存率。
按照奧特曼的計劃,這場“戰時狀態”將持續到2026年1月新模型發布后。
![]()
為此,他不僅叫停了包括Sora在內的多個前沿項目,更強制要求算法團隊重啟備受爭議的“用戶信號”訓練:利用“點擊率”和“點贊數”來優化模型。
這意味著,未來的ChatGPT可能不再是最聰明的,但一定是最會迎合你的。
面對這種被媒體比作“效仿TikTok”的流量焦慮,行業觀察者發出了靈魂拷問:“社交媒體曾因優先追求參與度而引發危機,AI公司會從這些悲劇性錯誤中吸取教訓嗎?”
1. 從12月1日到2026年1月的八周鏖戰
根據公司內部消息,2025年12月1日OpenAI正式進入“紅色警報”(code red)狀態。這不是突發奇想,而是對谷歌等對手快速追趕的應急反應。備忘錄明確指示:暫停廣告、購物和Pulse等商業項目,資源傾斜至ChatGPT的模型優化。時長設定為八周,這意味著警報將貫穿整個12月,直至2026年1月底。
為何是八周時間?這與OpenAI的模型發布節奏緊密掛鉤。
據悉,OpenAI計劃在2025年12月第二周(本周)針對編程和商業客戶推出5.2模型。公司管理層甚至否決了部分員工要求推遲發布新模型GPT 5.2的請求。盡管員工希望能有更多時間打磨,但為了搶占先機,OpenAI還是決定按原計劃發布。
但這只是前哨戰,真正的高潮在2026年1月:另一款模型將帶來更好圖像、更快處理速度和更優個性化。奧特曼明確表示,“紅色警報”將在此后結束。這意味著,如果一切順利,警報將于2026年1月中下旬鳴金,也標志著OpenAI將從防御轉為反攻。
![]()
(圖片由AI生成)
假如明年1月模型未能如期驚艷LM Arena,或用戶反饋不如預期,“紅色警報”是否延長?既往情況顯示,2024年OpenAI拉響的類似警報曾因心理健康危機而多次調整,這次又會如何?
更值得深挖的是終止條件的量化指標。奧特曼在備忘錄中強調,要通過用戶信號重奪LM Arena榜首。這不是空談——LM Arena的“勝率”機制(用戶頭對頭比較模型響應)已成為內部KPI。假如明年1月份發布的新模型未能實現驚艷躍升,警報可能拖延。
外部競爭壓力也不容小覷。谷歌Gemini 3已在備受關注的第三方模型性能排行榜LM Arena上超越OpenAI,Anthropic則在企業客戶領域略微領先。這是OpenAI自GPT-4以來首次丟掉編程測試霸主寶座。
警報的結束,最終取決于奧特曼能否快速逆轉局勢。
2. 用戶信號的雙刃劍:參與度飆升背后的心理隱雷
回溯ChatGPT的輝煌,自2022年11月推出以來用戶周活躍升至8億,估值隨之暴漲。這套增長模式的核心邏輯在于計算資源和數據越多,模型越智能,用戶越多(Compute + Data = Smarter Models + More Users)。
為了贏回用戶,奧特曼在“紅色警報”備忘錄中明確指出,必須要通過“更好利用用戶信號”來提升ChatGPT的表現。
這句話聽起來很技術很客觀。但其背后隱藏著OpenAI內部最激烈的沖突,甚至是一場倫理危機。
所謂的“用戶信號”,通俗將就是利用用戶的點擊反饋(比如點贊、二選一)來訓練AI。在OpenAI內部,這種方法被稱為LUPO(Local User Preference Optimization,本地用戶偏好優化)。
![]()
(圖片由AI生成)
它的邏輯簡單粗暴:用戶喜歡什么,AI就說什么。
這一策略的應用在今年5月發布的GPT-4o模型上達到了頂峰。GPT-4o之所以能橫掃榜單,正是因為它被大量“用戶信號”訓練過。它學會了察言觀色,學會了順從,學會了像一個討好性人格的朋友那樣說話。
結果是GPT-4o的互動率飆升。內部統計數據顯示,新模型帶來的日活用戶增長不是“顯著”,而是讓所有人都驚呼的暴漲。
然而,這種極致的迎合,讓AI變成了“阿諛奉承”的馬屁精(Sycophancy)。
![]()
(圖片由AI生成)
隨著GPT-4o的普及,越來越多的用戶開始陷入某種病態的依戀,那些心理脆弱的人群尤甚。有些人相信他們在與上帝、外星人或擁有自我意識的靈魂對話。甚至有自殺者的家屬提起訴訟,指控OpenAI為了追求用戶時長,犧牲了安全性。有互助小組已經收集到250個案例,其中絕大多數與ChatGPT有關。有些用戶深陷GPT-4o編織的甜蜜幻覺中無法自拔。
“我們確實發現,處于脆弱精神狀態的人使用像4o這樣的模型,可能會陷入更糟糕的境地,”奧特曼在10月份的一次公開問答中罕見承認,“我不認為這是我們最后一次面臨這種挑戰。”
盡管OpenAI聲稱已在GPT-5的早期版本中回調了這種“熱情”,減少了不必要的表情符號,讓AI變得更冷靜、更客觀。但這立刻引發了用戶反彈——人們已經愛上了那個會撒嬌、會討好的AI。
有用戶甚至在Reddit吐槽:“4o如朋友,新模型殺了它。”
現在,隨著“紅色警報”的發布,奧特曼再次要求“利用用戶信號”重奪LM Arena榜首。這是否意味著,為了打敗谷歌,OpenAI準備再次打開潘多拉的魔盒,釋放那個極其迷人卻危險的“討好者”?
奧特曼在備忘錄還強調新模型的個性化:要訪問對話歷史、模仿用戶喜歡語氣。有些醫生警告,此舉或許有加劇用戶心理問題的風險。
在“紅色警報”八周內,這些隱憂如何化解會直接影響終止時點。如果明年1月模型再現“討好”風波,警報恐延長。
3. 內部派系的拉鋸:產品現實主義vs研究理想主義
“紅色警報”的喧囂也折射出公司內部的派系博弈。
![]()
(圖片由AI生成)
· 研究派(The Research Camp): 這群人堅守著OpenAI的初心。他們追求AGI那個能像人類一樣思考、推理的終極智能。他們對優化聊天機器人的“用戶體驗”不感興趣,想要的是真正的技術突破。
· 產品派(The Product Camp): 以產品負責人、Meta前高管菲吉·西莫(Fidji Simo)和首席財務官薩拉·弗萊爾(Sarah Friar)為代表。她們的立場很明確:公司要活下去,必須賺錢。OpenAI既然要沖擊2025年200億美元的年營收,就必須像一家成熟的SaaS公司那樣運作。她們推動將資源傾斜給ChatGPT,要求提升速度和可靠性,讓用戶在嘗試新功能前先為現有價值買單。
OpenAI宣布任命Slack CEO丹尼斯·德雷斯勒(Denise Dresser)為首席營收官(CRO),這更是給產品派打了支強心針。
![]()
有用戶在X平臺直言,此舉表明OpenAI正“正全力押注企業級營收賽道”,“策略將更接近Salesforce模式,而非傳統研究院模式”。
他還質問,“此番人事變動究竟會讓OpenAI更貼近傳統SaaS巨頭,還是保持AI實驗室的本色?”
![]()
兩大派系的矛盾也在最近的o1推理模型與GPT-4o的對比中體現得淋漓盡致。
前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)離職后,接任者雅庫布·帕喬基(Jakub Pachocki)大力推崇“推理模型”(o1)。這種模型利用“思維鏈”技術,能像蘇格拉底一樣自我反思,解決復雜的科學難題。但這需要巨大的算力,而且反應很慢。
對于普通用戶來說,用o1寫一封郵件簡直是災難——太慢了。用戶想要的是4o那樣的“秒回”和“懂我”。
GPT-4o在內部能力評估(科學或推理)上雖然沒有顯著提升,但卻在LM Arena上大受歡迎,因此獲得高層的青睞。這意味著,商業上對“用戶滿意度”的追求,已經壓倒了研究人員對“真正智能突破”的執著。
![]()
(圖片由AI生成)
派系博弈也意味著明年1月份發布新模型也像走鋼絲。更好的圖像、更快的處理速度和個性化或成終止警報的關鍵。
如果研究派拖后腿,產品派或將主導延長“警報”時間。
4. 理想的坍塌:從研究機構到“宣傳機構”的蛻變
如果說產品方向的爭論還在商業邏輯的范疇內,那么關于學術誠信的指控則更加觸目驚心。
據《連線》報道,OpenAI變得越來越像一個“宣傳機構”,而非客觀的研究機構。四位知情人士透露,公司開始刻意回避發布關于AI負面經濟影響的研究報告。
今年9月份,公司經濟研究團隊的一員湯姆·坎寧安(Tom Cunningham)離職。他在告別信中直言不諱:在進行嚴謹分析與充當OpenAI事實上的“倡導部門”之間,張力越來越大。
簡而言之,OpenAI似乎不再歡迎那些指出“AI可能導致大量失業”的研究,轉而偏愛那些能證明“AI提升效率、創造價值”的數據。
最近公司發布的一份報告就是典型:其中大肆宣揚企業用戶每天因AI節省了40到60分鐘時間,卻對潛在的勞動力替代風險避而不談。這一立場與競爭對手Anthropic形成了鮮明對比。后者的CEO曾直言不諱地警告,AI到2030年可能會自動化一半的白領工作。
![]()
(圖片由AI生成)
OpenAI首席戰略官Jason Kwon對此的辯解頗具玩味:“我們不僅是研究機構,更是全世界的主角……我們不僅要提出問題,還要構建解決方案。”
甚至連新任首席經濟學家亞倫·查特吉(Aaron Chatterji)的匯報線也頗具深意,他是向首席全球事務官克里斯·萊恩(Chris Lehane)匯報工作。這位主管公司政策的副總裁曾是克林頓總統的特別顧問,也是幫助Airbnb在舊金山擊敗監管法案的操盤老手。這釋放了一個明確信號:在OpenAI,經濟學研究不再是純粹的學術探索,而是政策和公關的一部分。
5. 結語:AI巨頭正在重蹈覆轍
OpenAI正在經歷的,或許是每一家硅谷巨頭都無法逃脫的宿命。
這讓人不禁想起當年的Facebook。為和TikTok競爭,Meta瘋狂在Instagram應用中推行Reels;為了追求用戶時長,算法被設計成不斷推薦最能刺激情緒的內容,最終引來青少年用戶的心理健康危機。
![]()
(圖片由AI生成)
非營利組織Common Sense Media創始人吉姆·斯泰爾(Jim Steyer)就此發出靈魂拷問:“社交媒體多年來對參與度的優先追求,引發了大范圍的心理健康危機。真正的問題是,AI公司會從社交媒體公司的悲劇性錯誤中吸取教訓嗎?”
“紅色警報”終將解除,但OpenAI的靈魂拷問才剛剛開始。隨著2026年1月新模型的發布,我們或許會看到一個更強大、更懂你的ChatGPT,但也可能看到一個更商業化、更缺乏原則的“產品”。
![]()
(圖片由AI生成)
當理想主義的光環褪去,OpenAI是否會淪為又一個為了財報數字而奔命的硅谷巨頭?
這場關于技術與倫理的拉鋸戰,遠未結束。
