Anthropic發難,指控中國AI公司“模型蒸餾”侵權。
![]()
2026年2月24日,美國獨角獸公司Anthropic發布聲明,指控中國三家頭部大模型型企業DeepSeek(深度求索)、Moonshot(月之暗面)和MiniMax利用欺詐性賬戶和代理服務,竊取Claude大模型能力。該公司聲稱,三家中國AI公司使用了一種叫做“模型蒸餾”的技術來提升自身模型能力,即利用一個能力較弱的模型在更高級模型的輸出結果上進行訓練。
Anthropic認為,DeepSeek、Moonshot和MiniMax的行為違反其服務條款和區域訪問限制,這幾家公司通過約24,000個欺詐性賬戶生成了超過1,600萬次與Claude的交互。
![]()
核心指控,Claude模型能力被大規模竊取
Anthropic表示,中國AI公司的“蒸餾”技術都遵循了相似的路徑,它們利用欺詐性賬戶和代理服務大規模訪問Claude,同時逃避檢測,目標直指Claude的代理推理(agentic reasoning)、工具使用和編碼能力。
DeepSeek(深度求索):超過15萬次交互,重點在于提取Claude在多樣化任務中的推理能力。這些活動產生了同步的流量模式,賬戶間存在相同的模式、共享的支付方式以及協調的時間安排,這暗示了為了增加吞吐量、提高可靠性并避免檢測而進行的負載均衡。
Moonshot AI(月之暗面):超過340萬次交互,目標涵蓋代理推理和工具使用、編碼與數據分析、計算機使用代理開發以及計算機視覺,旨在重建Claude的推理軌跡。
MiniMax:這是三者中規模最大的,超過1,300萬次交互,明確針對代理編碼、工具使用和編排。Anthropic特別指出,MiniMax 在 24 小時內便將近一半流量轉向新系統,以捕獲最新功能,顯示出極強的適應性。
針對此事,馬斯克在X平臺轉發調侃,火力全開:“他們竟敢‘偷竊’Anthropic從人類程序員那兒‘順’走的東西?”
![]()
技術分歧:蒸餾技術的合法性與濫用問題
Anthropic聲稱,上述公司竊取Claude的核心技術,依賴的是代理服務,也就是“九頭蛇集群架構”(hydra cluster architectures),可以繞過前沿AI模型的訪問權限。
Anthropic的指控也引發了一個熱議話題,那就是AI系統究竟是如何被訓練的?
目前來看,大多數大型語言模型,包括領先的商業系統,本身都是基于海量公開互聯網數據上訓練,通常并未獲得原始作者的明確同意。
Counterpoint Research的副總裁Neil Shah表示:“正如許多基礎模型通過引用互聯網數據構建模型的路徑一樣,通常未經創作者的明確同意,或是搭便車利用了其他搜索引擎的內容,新的進入者在許多情況下也正在走同樣的‘蒸餾’和優化路線。”他補充道,關于誰擁有合成數據以及把這些數據用于訓練(尤其是開源模型)是否合規的問題,一直存在根本性的分歧,而這一點在法律上大多尚未定義。
Anthropic并非首家因“蒸餾”對華發難的企業。此前OpenAI剛指控DeepSeek蒸餾GPT模型,DeepSeek雖以“上哪兒偷去”回應并強調架構創新,但也承認訓練數據中混雜的OpenAI生成內容,可能令模型間接受益。
技術出口政策管制與國家安全
Anthropic從國家安全的角度,指控了模型蒸餾的違法性,認為非法蒸餾的模型可能會讓美國之前控制先進AI技術能力輸出的行為失效。此事一出,有專家指出問題的癥結點,目前的美國出口管制主要集中在硬件上,而非大型語言模型。
“必須將硬件限制與服務訪問區分開來。美國出口管制主要集中在先進半導體、高性能計算基礎設施以及在某些監管時刻針對特定類別的先進AI模型權重。目前并沒有禁止向中國提供大型語言模型API訪問權限的通用禁令,”Greyhound Research的CEO兼首席分析師Sanchit Vir Gogia解釋道。
但這并不意味著開發者可以高枕無憂。Gogia 補充說,美國工業和安全局(Bureau of Industry and Security)正在持續完善與先進計算商品及高能力系統相關的許可框架。此外,如果一家公司明知其支持受限制實體的訓練活動,特別是那些與軍事或戰略目標相關的實體,那么即使沒有進行硬件輸出,也可能面臨暴露風險。
為了保護自身利益,許多美國AI提供商已經通過商業政策和合規行為限制了其產品在中國的可用性,甚至超出了嚴格要求的范圍。
Ankura Consulting 的全球合伙人/高級常務董事(印度區)表示:“對于開發者來說,這種風險雖然間接但真實存在:如果你的產品為受限地區或實體提供了訪問途徑,超出了被禁止的最終用途,或者幫助他人繞過提供商的地理限制,那么根據最終用戶是誰以及系統實現了什么功能,你都可能觸發賬戶終止、合同責任,甚至可能面臨監管審查。”
LLM API開發將采取更嚴格的限制措施
對于那些正在使用大語言模型構建或訓練模型的開發者來說,Anthropic 的指控凸顯了一個日益擴大的灰色地帶。開發者通常會使用LLM API進行應用程序開發、測試或評估。但目前,各大模型服務提供商正在密切關注利用模型輸出進行大規模、自動化訓練以開發競爭系統的做法。
例如,Anthropic 正在通過投資防御性技術來應對這一挑戰。在檢測方面,該公司已構建了多個分類器和行為指紋系統,旨在識別API流量中的“蒸餾攻擊”模式。同時,鑒于教育賬戶、安全研究項目和初創組織常被利用來設立欺詐賬戶,該公司也加強了對這些渠道的驗證。此外,Anthropic 還正在實施產品級、API級和模型級的防護措施,旨在降低模型輸出在非法蒸餾中的有效性,同時不損害合法客戶的使用體驗。
開發者自身也應確保其模型訓練過程是安全、合規且經得起推敲的。對于開發者來說,應審查API/服務條款,并假設未經明確許可,不得在輸出結果上進行訓練。他們應為每一個訓練/示例項目的來源保留清晰的記錄,并附上相應的許可/條款。同時,應將運營日志與訓練數據集分開保存,并設定保留期限限制。
Gogia認為,地緣政治方面的盡職調查不能只是事后補救。受限方篩查、出口合規審查以及特定地區的訪問控制,正日益成為AI治理的一部分,特別是對于跨國運營的企業而言。如果監管機構或收購方要求開發者解釋其訓練流程,開發者應能夠提供完整的文檔記錄,且沒有任何保留。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.