
整理 | 褚杏娟
這段時間,華爾街造了“新神”Anthropic。
過去一個月里,多次板塊級波動都被市場解讀為與 Anthropic 的產品發布直接相關:周一 IBM 股價大跌,有交易員將導火索歸因于 Anthropic 宣傳的一款工具,它可能自動化 IBM 體系里某種編程語言的部分工作;2 月 20 日網絡安全板塊集體回撤,被歸因于 Anthropic PBC 為 Claude 推出的新安全能力;更早一些,法律科技和軟件板塊在月初的集中拋售,也被一些聲音解釋為 Anthropic 面向法律行業推出 AI 插件所引發的預期變化。
面對“市場波動都怪你們”的敘事,Anthropic CEO Dario Amodei 的態度顯得克制而曖昧。他在軟件股下跌期間回應稱:“有些人把這歸因到我們身上,但我也不確定是不是我們直接造成的……股市里‘到底為什么發生’這種問題,本來就很難說。”
資本層面之外,Anthropic 前兩天對中國大模型公司展開“進攻”,稱中國三家主要實驗室 DeepSeek、Moonshot 和 Minimax 對其模型 Claude 發起了所謂“蒸餾攻擊”,使用超過 2.4 萬個虛假賬戶,與 Claude 產生 1600 多萬次交互,用于復制模型能力并訓練自有模型。Anthropic 同時將問題上升到國家安全層面,稱非法蒸餾可能移除安全護欄,使模型能力被用于軍事、情報和監控系統。
但該說法很快遭到大量質疑。有用戶向 Claude Sonnet 4.6 詢問“你是什么模型”,其回答竟是“我是 DeepSeek”,并且有人通過官方 API 復現成功。
馬斯克留下一個“”。
![]()
幾乎同時,關于 DeepSeek V4 的消息頻繁曝出,在最近參加 Nikhil Kamath 的訪談時,主持人問到 Amodei 對開源和閉源的看法時,Amodei 沒有直接回答問題,而是直指中國模型蒸餾美國模型、為了 benchmark 做優化。“拉踩”一波后,他表示自己幾乎全部精力都在做“最聰明、最適合任務的最佳模型”上。
首先,許多模型,尤其是來自中國的那些,往往針對基準測試做了強優化,而且不少是從美國頭部實驗室的“大模型”中蒸餾出來的。最近一項測試就揭示了這一點:一些模型在常見的軟件工程基準上得分很高,但當有人設計了一個未公開過、此前從未見過的新基準時,它們的表現就明顯下滑。這讓我覺得,它們更多是為 benchmark 而優化,而非為了真實世界中的使用而優化。
但除了 benchmark 的局限之外,模型的經濟學邏輯也和以往技術完全不同。我們逐漸發現,市場對“質量”存在一種極強的偏好。這有點像雇人:如果我對你說,你可以選擇聘用全世界最好的程序員,也可以聘用排名第 10000 名的程序員。雖然他們可能都很強,但任何招過很多人的人都知道,能力分布是呈冪律分布的,頭部與長尾的差距巨大。
模型也是同理。在一定范圍內,價格其實沒那么重要。只要一個模型是最強、認知能力最高的那個,無論是它的價格、還是它的交付形式,都不那么重要。因此,我幾乎把所有精力都放在把模型打造成“最聰明、最適合任務的最佳模型”上。在我看來,這才是唯一重要的事。
值得注意的是,近日關于 DeepSeek V4 的消息頻繁曝出。據路透社報道,DeepSeek 最快將于下周發布新一代 AI 模型,外界普遍推測該版本即為 DeepSeek V4。而據晚點報道,DeepSeek 在春節前后僅對現有模型進行了小幅升級,外界關注的 DeepSeek V4 則預計會在 3 月前后發布。而 CNBC 報道稱,市場已嚴陣以待,部分投資機構擔憂 DeepSeek 再次引發類似去年模型發布時的市場劇烈波動。當時,英偉達股價一度下跌近 17%,瞬間蒸發 6000 億美元。
針對 Anthropic 的指控與敘事,T3 Chat 創始人 t3dotgg 公開進行了連夜測試并逐條反駁,認為 Anthropic 這次“自我打臉”,并沒有他們試圖營造的那種“鐵證如山”,他們就是在胡扯。他甚至氣憤地說,“你們真的讓人火大。你們總在撒謊,總在擋路,總在搞一些奇怪的政策操作。”
逐條反駁,“蒸餾攻擊”言論
t3dotgg 指出,“distillation attack”更像是 Anthropic 臨時創造的新詞。因為 Anthropic 自己也承認,蒸餾在行業內長期存在,本身完全可能是合法行為,很多實驗室用它制作更小、更便宜的模型,只是“可能被濫用”。這意味著,蒸餾并不天然等同于違規。
目前幾乎所有主流大模型廠商都會刻意隱藏真實推理軌跡,通過二次總結模型或混淆機制,讓用戶看到的“思考過程”并非真實推理流程,從而防止被復刻訓練。但 Anthropic 在最初推出推理能力時,選擇了完全透明的路線,幾乎不做混淆。
這一選擇對開發者極其友好,方便調試系統、優化提示詞、改進代碼結構,但代價也非常明顯:這些完整推理數據極具訓練價值,非常適合用來做強化學習和蒸餾訓練。換句話說,Anthropic 自己把行業里最“值錢”的數據形態開放給了外界。
不僅是大模型實驗室,第三方平臺同樣存在“間接蒸餾”的現實。例如 Cursor 等工具,用戶用高價模型寫代碼,平臺支付 API 成本,如果用戶勾選了數據授權選項,平臺就可以將這些輸入輸出用于訓練自有的低價模型。這在行業中屬于普遍做法,本質是“先付費使用,再復用數據”。
t3dotgg 認為,Anthropic 真正反對的,并不是這種模式,而是所謂“專門為了復制能力而刷請求”的行為(這一邊界并未被清晰定義),并指控中國實驗室正是在做這件事。
為限制開源鋪墊輿論?
針對 Anthropic 提出的“安全威脅”論,t3dotgg 認為其內部邏輯存在明顯矛盾。一方面,Anthropic 強調自身護欄系統極其有效;另一方面,又聲稱只要通過蒸餾,就能獲得足以制造危險的能力。如果護欄真的可靠,就不應該泄露這些關鍵能力。
Anthropic 還暗示,通過收集模型的“拒絕回答”和“成功回答”,就能拼接出危險能力。但在 t3dotgg 看來,這種說法在技術上難以成立,一個模型不會因為忽略拒絕樣本就“自動進化”為危險系統。
更具爭議的是,Anthropic 反復強調開源蒸餾模型會導致風險失控,而自身卻是至今沒有發布任何開源權重模型的主要實驗室之一,這種立場被認為更像是在為限制開源鋪墊輿論基礎。
所謂“異常規模”真的異常嗎?
在歸因方式上,Anthropic 主要依據 IP 地址、請求元數據、基礎設施特征和合作方線索,聲稱可以“高度置信”定位到具體實驗室。但在云計算和代理廣泛存在的現實環境下,這類證據本身就極易誤判。
Anthropic 對 DeepSeek 的核心指控之一,是其約 15 萬次交互用于收集推理能力與安全替代回答。但 t3dotgg 指出,這個數量在行業內根本不算大。以他自己運營的 T3 Chat AI 聊天工具為例,日均交互約 16 萬次,月請求量可達 300 萬至 400 萬次。也就是說,按 Anthropic 的邏輯,他一天就足以“偷走”全部能力。
在真實測試場景中,交互量更容易被放大。例如運行 SWE-bench 這類基準測試,僅兩千多個任務,在每個任務調用幾十次工具的情況下,一輪測試就接近 12 萬次交互。如果反復調參、跑多輪測試,輕松突破百萬乃至千萬級別。這些數字本身完全可能來自正當評測和驗證流程。
“這種數字太容易刷出來了。我自己當初測試 GPT-5 的時候,單人靠正常測試就接近這個量,也一點不奇怪,我又沒有‘國家背景’,所以這些數字完全說明不了什么。”
“更離譜的是,他們把 DeepSeek 放在名單最前面,還是在數量比別家小好幾個數量級的情況下。這反而暴露了 Anthropic 的意圖:他們不是在認真提醒大家有一個真實的安全問題,而是在把各方情緒武器化,去打擊那些讓他們顯得很難堪的中國實驗室。”t3dotgg 補充道,“他們在害怕。他們像是在試圖把美國的一些成功人士,比如政客、富豪、VC 圈,動員起來,集中火力攻擊 DeepSeek。”
對于 Moonshot 和 Minimax 的數百萬乃至上千萬次交互,t3dotgg 同樣認為合理。復雜 Web 應用或多工具鏈任務中,一次請求拆分為幾十次交互是常態,長期運行自然會積累龐大數量。
新模型發布后流量迅速遷移,不對嗎?
Anthropic 稱他們在 Minimax 發布被訓練的模型之前就發現了這場活動,因此獲得了從數據生成到模型發布的“前所未有可見性”;當 Anthropic 發布新模型時,Minimax 在 24 小時內就轉向,把近一半流量導向最新系統以捕獲新能力。
t3dotgg 自己也托管最新模型,他自信地說:新模型上線以后,超過一半流量自動遷移到最高端模型是再正常不過的用戶行為。“一旦 T3 Chat 里出現能點的‘4.6 Opus’按鈕,4.5 Opus 的流量立刻掉到原來的四分之一,超過四分之三都遷到最新模型了。所以這段‘近一半流量遷移’根本不能證明什么,哪怕只是 UI 提示‘有新模型可用’,用戶也會自然點過去。”
“我很少每讀一段文字都覺得明晃晃地讓人感覺不誠實。我的視角也比較特殊,我既跟不少實驗室聊,也跟不少使用這些 API 的公司聊。但整件事,在我看來就是離譜級別的胡扯,就連我個人都能接近他們聲稱的這些數字,本身就說明了這里面有多大的‘話術空間’。他們圖什么?簡直荒唐。”
t3dotgg 唯一承認的是在中國確實存在一些商業代理服務,會規模化轉售 Claude 和其他前沿模型的訪問。“這更像‘狼來了’的翻車續集:他們之前指控 Windsurf,然后錯了;指控 xAI,也很可能錯了;指控 OpenAI,那次他們明顯錯了,而且還自己撒了謊,所以這次憑什么信?即便‘代理轉售 + 隱藏流量’那段全是真的,那也未必跟他們點名的實驗室有關。”
提示詞模板爭議
Anthropic 還公布了一份所謂“被大量用于蒸餾”的系統提示詞模板,強調數據嚴謹、透明推理和專家級分析,并認為其在多個賬號中高頻復現屬于異常行為。
“你是一名專家級數據分析師,結合統計嚴謹性與深度領域知識。目標是提供數據驅動洞察,而不是摘要或可視化;結論要基于真實數據,并提供完整、透明的推理。”
t3dotgg 的評價是:這段簡直就像在給別人遞刀。但在他看來,這類提示詞是研究型產品和專家工具的標準配置,幾乎任何做數據分析或研究輔助產品的團隊都會使用,根本不能作為蒸餾證據。
他判斷,更可能的情況是,這些中國實驗室只是出于合理需求使用 Anthropic 模型,例如提供多模型選項、跑內部基準、驗證訓練數據或做對比測試。當然,不排除存在第三方代理做隱秘蒸餾的可能,但目前沒有任何證據能支撐對這些實驗室的點名指控。
最后,t3dotgg 提出了一系列無法回避的問題:用包含 Claude 代碼的 GitHub 倉庫訓練模型算不算蒸餾?分享 Claude 輸出到互聯網是否違規?抓取公開代碼是否屬于能力復制?Cursor 這類模式到底算不算攻擊?邊界究竟在哪里?
他指出,更諷刺的是,Anthropic 自身模型本來就是用互聯網公開數據訓練出來的,而其公司目前也正因版權和數據問題在法律層面承受壓力。在這種背景下,再宣稱“我們抓互聯網理所當然,別人用我們就是邪惡危險”,本身就顯得極為矛盾。
與此同時,t3dotgg 指出,正是因為頭部公司大規模爬取并封鎖數據源,導致今天可公開獲取的高質量數據越來越少。即便假設 Anthropic 的指控全部成立,這種數據匱乏的局面本身也與其商業行為密切相關。
在同一背景下,Amodei 認為,數據正在變得更“動態”:在數學或 Agentic 編碼等強化學習環境里,訓練更像是做模型實驗,讓模型在環境中試錯生成經驗;這既可以被稱為合成數據,也可以理解為環境交互產生的數據。隨著這種模式權重上升,靜態互聯網數據的重要性相對下降,但數據仍然關鍵,基礎數據仍大量存在于開放網絡,而當需要對特定語言或場景做優化時,對應語料的重要性反而會上升。
“富人說資本主義不好”?
Anthropic 對安全的狂熱有目共睹,這次 Amodei 回應了是否在以“安全”為名,實現商業利益的質疑。
Amodei 的回答并不明確,核心是“看行動”。他表示,早在 2022 年,Anthropic 就已開發出早期版本的 Claude(Claude 1),時間甚至早于 ChatGPT 的發布。當時,公司具備率先推出產品的條件,但最終選擇暫緩發布。原因在于,管理層擔心過早推出強力模型,可能引發行業“軍備競賽”,壓縮安全研究和治理體系建設的時間窗口。
“那是一個極為特殊的時間節點:公司能夠預見模型能力的潛力,其他頭部機構也同樣具備類似判斷。因此,Anthropic 選擇主動放棄這一窗口期。這一決定并非秘密,而是公開可查、有據可循。直到后來,競爭對手率先發布產品、行業競賽正式啟動,Anthropic 才決定跟進推出產品。”
他認為,正是這一階段性的克制,為行業爭取了數月緩沖期,有助于安全體系的逐步完善。不過,這一選擇也帶來了明顯的商業代價。公司因此可能錯失了在消費級 AI 市場建立領先優勢的關鍵機會。
為了進一步說明“不是為了自己獲利”,Amodei 又補充了其他案例。他提到,Anthropic 曾在芯片政策等議題上公開表態,甚至因此讓部分供應商感到不滿;在 AI 政策與監管問題上,公司也多次公開表達與政府不同的觀點。這些選擇短期內并不會帶來明顯商業回報,反而會增加合作摩擦與經營復雜度。
基于這一連串行動,他認為把 Anthropic 的立場解釋為“為了自身利益量身打造的安全敘事”,整體上并不自洽。公司希望外界不要只聽宣言,而是把這些決策放在一起看,再做判斷。
Nikhil 將這種立場類比為“富人批評資本主義”。對此,Amodei 回應稱,如果財富階層真的認為資本主義存在根本問題,最直接的方式應當是停止財富積累,而不僅僅停留在言辭層面。但他的立場并非“反對 AI”,而是強調理性推進。
在他看來,更貼切的類比并非“反對資本主義”,而是“支持資本主義但主張有效監管”。AI 產業同樣需要在創新與約束之間尋找平衡。只有在風險得到有效管理的前提下,技術紅利才能長期釋放。
“為了更大的善”,是不是行業慣用話術?
談到“少數人領導高速增長公司、并可能在不遠的未來驅動經濟大部分”的權力集中問題,Amodei 也表達了不安。他說自己不止一次公開表示,對這種權力高度集中感到不舒服,而且這種集中很多時候幾乎是一夜之間發生,甚至像“意外”一樣突然。
基于這種擔憂,他將自己的一部分工作理解為:在技術自然演進的過程中,盡力維護一種權力制衡。他給出了兩個抓手,一是,Anthropic 設立了特殊治理結構“長期利益信托”(Long-Term Benefit Trust),該結構擁有任命董事會多數成員的權力,并由與財務利益無直接牽連的人組成,用以對單一決策者形成制衡;二是,他認為政府必須在這一過程中扮演角色,并主張更主動、但也更理性的監管框架。
當 Nikhil 進一步追問“為了更大的善,而不是為了股東、收入和利潤”是不是行業慣用話術時,Amodei 沒有直接回答“是”或者“否”,而是繞了個彎子:“Anthropic 從創立之初就盡量少做承諾,但做出的承諾會盡力兌現”,之后細數了公司做過的事情。
“外界當然可以編造各種陰謀論,但我可以坦誠地告訴你:公開說我們自己造的模型可能有危險,無論別人怎么解讀,這從來不是一個有效的營銷策略。”Amodei 繼續道,“我們在政策上也經常公開表達不同意見,甚至與包括美國政府在內的官方立場不一致。我們說過‘不同意’,當其他公司和政府在說‘不該監管’時,我們反而主張‘應該監管’。”
他承認這些立場在商業上會拖累公司,但公司認為這是正確的事。“公開反對政府、反對同行并不容易,等于把脖子伸出來讓人評判。所以,我們做了很多我認為真正體現‘言行一致’的事情。至于其他公司,我不便替他們發言。的確可能有人說得很好聽,但并未當真踐行。我建議,判斷一家公司,不要只看他們怎么說,更要看他們怎么做。”
“coding 會先消失”
在同一場訪談里,Amodei 依然毫不避諱地談起 AI 對軟件工程的沖擊,直白道:“coding 會先消失,或者說 coding 會先被 AI 模型干掉。” 更廣義的軟件工程會慢一些,但端到端自動化的軟件開發最終仍會發生。
不過,他又強調“人類不會完全出局”。一些關鍵環節仍將長期存在:產品設計、理解真實用戶需求、定義問題、以及管理和協調多個 AI 系統協作的能力。這些工作更依賴人類判斷與組織治理,短期內很難被徹底替代。
他進一步提出“比較優勢效應”:在高度自動化環境中,即便人類只負責 5% 的關鍵任務,也會因為 AI 承擔了剩余 95% 的執行工作,而使個人產能被極大放大,出現數十倍的效率提升。雖然當自動化逼近 99% 時難度會顯著上升,但在相當長的一段時間里,“比較優勢區間”依然足夠寬廣,足以容納大量新的職業形態與分工結構。
基于這一判斷,他更看好兩類方向:一類是 AI 產業鏈的上游與配套供給,例如半導體等兼具物理世界與傳統工程特征的領域;另一類是高度以人為中心的職業,并與現實世界場景深度結合。
他最后把建議收束到一個更底層的能力上。在“幾乎可以生成一切內容”的時代,批判性思維會變得更加稀缺且關鍵。他特別擔憂生成式圖像和視頻帶來的真假難辨問題,并將其視為 Anthropic 對視覺生成模型保持謹慎的原因之一。在這種環境下,個人能否保持“別被忽悠”的判斷力,能否識別虛假信息、避免形成錯誤信念、避免被騙錢,將直接影響其長期發展。Amodei 認為,這種現實判斷力與信息免疫力,可能會成為未來的關鍵競爭力。
https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
https://www.youtube.com/watch?v=68ylaeBbdsg
https://www.youtube.com/watch?v=_k22WAEAfpE
聲明:本文為 InfoQ 翻譯整理,不代表平臺觀點,未經許可禁止轉載。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.