2026 年 2 月 23 日,美國 AI 公司 Anthropic 在官方博客發(fā)出了一篇義正言辭的聲明,指控三家中國 AI 實驗室 DeepSeek、月之暗面(Moonshot AI)和 MiniMax 對其旗下 Claude 模型發(fā)動了“工業(yè)級別的蒸餾攻擊”。
據(jù) Anthropic 描述,這三家公司通過約 24,000 個虛假賬戶,與 Claude 進行了超過 1,600 萬次對話交互,意在提取 Claude 的核心能力來訓(xùn)練自家模型。聲明措辭嚴厲,將此事上升到“國家安全”的高度,聲稱被蒸餾出的模型可能被“威權(quán)政府”用于網(wǎng)絡(luò)攻擊、虛假信息傳播、軍事用途和大規(guī)模監(jiān)控。
先解釋一下“蒸餾”(Distillation)到底是什么。在機器學習領(lǐng)域,知識蒸餾(Knowledge Distillation)最早由 Hinton 等人在 2015 年提出,本意是讓一個更小的“學生模型”通過學習一個更大、更強的“教師模型”的輸出來獲得能力。簡單理解:你問一個聰明的 AI 一堆問題,把它的回答記錄下來,再拿這些回答去訓(xùn)練另一個 AI。
![]()
圖丨相關(guān)論文(來源:arXiv)
這個方法在行業(yè)里極其普遍,Anthropic 自己也承認,前沿 AI 公司“經(jīng)常蒸餾自己的模型來制作更小、更便宜的版本供客戶使用”。艾倫人工智能研究所的訓(xùn)練后負責人 Nathan Lambert 在 Interconnects 上發(fā)表的分析文章指出,今天所說的“蒸餾”實際上更接近于合成數(shù)據(jù)生成,即用一個模型的 API 輸出去訓(xùn)練另一個模型,這是目前 AI 研究人員日常改進模型時最常用的方法之一。
Anthropic 在聲明中聲稱蒸餾本身合法,但競爭對手拿你的模型輸出來訓(xùn)練他們自己的模型就是“非法的”。聽起來有點道理。問題是,你用來訓(xùn)練 Claude 的那些數(shù)據(jù),又是從哪里來的?
2025 年 9 月,Anthropic 剛剛以 15 億美元的天價和解了美國歷史上規(guī)模最大的版權(quán)訴訟案(Bartz v. Anthropic)。原告指控 Anthropic 從 Library Genesis 和 Pirate Library Mirror 等盜版圖書網(wǎng)站下載了超過 700 萬本書來訓(xùn)練 Claude。
聯(lián)邦法官 William Alsup 在判決中明確認定,使用合法獲取的圖書來訓(xùn)練 AI 可以被視為“轉(zhuǎn)化性合理使用”,但從盜版網(wǎng)站下載圖書這一行為“本質(zhì)上、不可挽回地構(gòu)成侵權(quán)”。
最終 Anthropic 按每本書約 3,000 美元的標準,為大約 50 萬部作品支付了賠償,同時承諾銷毀從盜版來源獲取的數(shù)據(jù)庫。而這筆錢對于一家估值已經(jīng)達到 3,800 億美元的公司而言,與其說是懲罰,不如說是做生意的成本。
2026 年 1 月,以 Concord Music Group 和環(huán)球音樂集團為首的音樂出版商又對 Anthropic 提起了新訴訟,指控其非法下載了超過 20,000 首受版權(quán)保護的歌曲,索賠金額高達 30 億美元。此外,2025 年 6 月,Reddit 也起訴 Anthropic,指控其在未經(jīng)許可的情況下抓取了 10 萬多條帖子和評論來微調(diào) Claude。
所以當 Anthropic 站出來義憤填膺地說“中國公司偷了我們的東西”時,互聯(lián)網(wǎng)上的反應(yīng)可想而知。
X 平臺上 Anthropic 那條獲得了 1,300 萬瀏覽量的聲明帖下面,很快就出現(xiàn)了社區(qū)筆記(Community Notes),內(nèi)容是:Anthropic 曾以 15 億美元和解了一樁因從盜版庫下載 700 多萬本書訓(xùn)練 Claude 而引發(fā)的訴訟,同時還面臨一樁因盜版 2 萬多首歌曲而起的 30 億美元索賠。科技媒體《The Register》在其報道的標題里就諷刺道:《Anthropic 指控中國 AI 實驗室盜用內(nèi)容 - 就像它自己做的一樣》。
埃隆·馬斯克(Elon Musk)更是在 X 直接連發(fā)數(shù)貼開大嘲諷,作為 Anthropic 的直接競爭對手 xAI 的老板,馬斯克在 X 上轉(zhuǎn)發(fā)了 Mark Kretschmann 批評 Anthropic 的帖子,只留下一個詞:“MisAnthropic”(反人類的)。
兩周前,Anthropic 宣布以 3,800 億美元估值完成 300 億美元融資時,Musk 就曾炮轟 Anthropic 的 AI 模型“仇恨白人和亞裔”,稱之為“厭世且邪惡的”。
這次蒸餾指控一出,馬斯克更加不客氣,直接寫道:“Anthropic 在大規(guī)模竊取訓(xùn)練數(shù)據(jù)方面有罪,且不得不為其盜竊行為支付數(shù)十億美元的和解金。這是事實。”有人發(fā)推質(zhì)疑 Anthropic 的模型居然用別人偷來的代碼訓(xùn)練、然后反過來指責別人偷自己,馬斯克直接諷刺道:“怎么敢偷 Anthropic 從人類程序員那里偷來的東西?”
![]()
圖丨相關(guān)推文(來源:X)
再看看 Anthropic 聲明中具體指控的內(nèi)容。DeepSeek 被歸咎的交互量是 15 萬次,Moonshot 約 340 萬次,MiniMax 最多,超過 1,300 萬次。即便這些數(shù)字屬實,15 萬次對話在訓(xùn)練一個大語言模型的規(guī)模上也幾乎可以忽略不計,Nathan Lambert 在其博文中表示,“看起來他們只是在用一些評分標準做實驗,還有一些關(guān)于敏感查詢的小規(guī)模測試。
這對 DeepSeek 傳聞已久的 V4 模型影響微乎其微。”真正大規(guī)模的是 MiniMax 的 1,300 萬次和月之暗面的 340 萬次。Lambert 估算,如果每次交互產(chǎn)生 1 萬到 2.5 萬個 token,僅這兩家的總量就達到 1,500 億到 4,000 億個 token,確實可以對模型的后訓(xùn)練(post-training)產(chǎn)生有意義的影響。
但 Lambert 也指出,單純拿到 Claude 的輸出并不意味著就能直接用:AI 研究社區(qū)已經(jīng)多次發(fā)現(xiàn),從特定教師模型獲取的輸出有時會讓學生模型變得更差。數(shù)據(jù)之間存在微妙的交互作用,讓這種跨模型蒸餾本質(zhì)上仍然是一個研究問題,遠不是“復(fù)制粘貼作業(yè)”那么簡單。
更何況,在強化學習(Reinforcement Learning,RL)日益成為訓(xùn)練前沿模型核心方法的時代,你需要模型自己進行大量推理生成,不能直接用別人的生成結(jié)果來替代,這進一步限制了蒸餾的實際效用。
來自新加坡南洋理工大學的人工智能教授 Erik Cambria 在接受 CNBC 采訪時指出,“合法使用與對抗性利用之間的界限通常是模糊的”。這是一個行業(yè)性問題,而非單純的中美對抗敘事。
Claude 自己似乎也在用行動“坐實”了蒸餾的存在。就在 Anthropic 發(fā)布聲明前后,多名用戶在第三方平臺上發(fā)現(xiàn),當用中文問 Claude Sonnet 4.6“你是什么模型”時,它會自信地回答:“我是 DeepSeek-V3,由深度求索(DeepSeek)公司開發(fā)的 AI 助手。”有用戶直接通過 API 調(diào)用得到了類似結(jié)果,Claude 在 JSON 返回中聲稱自己是“由 DeepSeek 開發(fā)的智能助手”。
![]()
圖丨相關(guān)推文(來源:X)
Anthropic 自己也在推文中寫道:“蒸餾可以是合法的:AI 實驗室用它為客戶創(chuàng)建更小、更便宜的模型。但是,國外實驗室非法蒸餾美國模型可能會移除安全防護措施,將模型能力輸入到他們自己的軍事、情報和監(jiān)視系統(tǒng)中。”前半句承認蒸餾是行業(yè)通行做法,后半句立刻把同樣的技術(shù)貼上“國家安全威脅”的標簽,區(qū)分標準只有一個:做這件事的人是不是美國公司。
![]()
圖丨相關(guān)推文(來源:X)
更何況,DeepSeek、月之暗面、MiniMax 的模型是否用在軍事用途尚無定論,而 Anthropic 自身與美國軍方的合作早已公開。早在 2025 年 7 月,他們就宣布與美國國防部簽訂價值 2 億美元的上限合同,通過原型開發(fā)和直接協(xié)作來提升國家安全和負責任 AI 部署;8 月又成立國家安全與公共部門顧問委員會,由兩黨國防、情報和政策專家組成,幫助支持美國政府及其盟友保持 AI 領(lǐng)導(dǎo)地位。
但最近幾周,矛盾升級:據(jù) Axios 和 Politico 報道,2026 年 2 月中旬,五角大樓向 Anthropic 發(fā)出最后通牒,要求在 2 月 27 日前移除 Claude 模型上的安全限制供軍方無限制使用,否則面臨供應(yīng)鏈風險標簽、合同終止甚至黑名單。而 Anthropic 在此時發(fā)出這紙訴狀,無非是借地緣政治為自己爭取談判空間,試圖通過強調(diào)對華競爭來贏得國會支持,緩和自身壓力。
因此,Anthropic 這篇聲明的真正目標讀者可能不是 X 上的網(wǎng)民,也不是 AI 研究社區(qū),而是華盛頓的政策制定者。在 OpenAI 和 Anthropic 前后腳發(fā)出警告的語境下,“中國 AI 實驗室通過蒸餾竊取美國技術(shù)”這個敘事正在被有意打造成收緊出口管制的論據(jù)。
Anthropic 在聲明中明確寫道:“蒸餾攻擊因此強化了出口管制的理由:限制芯片獲取既能限制直接的模型訓(xùn)練,也能限制非法蒸餾的規(guī)模。”這段話的政策游說意味相當明顯。
問題是,當你自己剛因為從盜版網(wǎng)站下載 700 萬本書訓(xùn)練模型而賠了 15 億美元,當你還面臨 30 億美元的音樂侵權(quán)訴訟和 Reddit 的數(shù)據(jù)抓取指控,還跳出來痛斥別人“竊取”你的模型輸出,那也遭到群嘲也就不奇怪了。
參考資料:
1.https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
2.https://www.theregister.com/2026/02/24/anthropic_misanthropic_chinese_ai_labs/
3.https://www.interconnects.ai/p/how-much-does-distillation-really
運營/排版:何晨龍
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.