![]()
資料圖。本文來源:北京商報、中國國創會
本賬號接受投稿,投稿郵箱:jingjixuejiaquan@126.com
資料圖。本文為新經濟學家智庫專稿,轉載請注明來源。
本賬號接受投稿,投稿郵箱:jingjixuejiaquan@126.com
Anthropic狀告美國政府背后的AI新契約
旻宏
新經濟學家智庫特約研究員
當Anthropic把五角大樓告上法庭,這家以“安全至上”為初心的AI公司等于把自己與美國國家安全體系之間的曖昧關系攤在了陽光下。 這起訴訟并不是一場簡單的“良心公司對抗軍工機器”的戲碼,而更像是AI頭部公司與國家權力重新議價的起點:在全面擁抱國家安全、情報和戰爭的前提下,是否還能保留哪怕極其有限的“底線”。與Anthropic一起被卷入聚光燈下的,還有與五角大樓達成復雜協議的OpenAI,選擇“所有合法用途”全面向軍方開放的xAI,以及早已成為烏克蘭戰場“數字軍火商”的Palantir。他們共同勾勒出一個正在成型的現實,即在21世紀的美國,“國家安全”正在成為AI商版圖和技術路徑的核心坐標系。
一、Anthropic為何選擇把話說死?
美國國防部正式把Anthropic列為“供應鏈風險”。
這本來是一套為防范外國對手而設計的工具,如今首度被用在了一家美國本土AI企業身上。對Anthropic來說,被打上這一標簽不僅意味著失去國防合同、被從敏感項目中被剔除,更深一層是,在美國國家安全生態的食物鏈中被打入“政治冷宮”。但這場沖突的起點,卻不是“要不要服務軍方”,而是“服務到什么程度”。Reuters披露的談判細節顯示,僵局集中在兩條紅線:Anthropic拒絕讓Claude用于對美國人的大規模國內監控;拒絕支持完全無人類監督的全自主致命武器系統。而五角大樓則堅持,軍方有權在“所有合法用途”上自由調用Claude,無法接受對其設置任何紅線。
于是談判破裂,特朗普要求聯邦機構停止使用Anthropic技術,國防部長赫格塞思以“供應鏈風險”的名義將Anthropic拉黑,這使得一場原本可以在封閉會議室里解決的商業和政策糾紛,迅速上升為憲法和行政法的公開沖突。在隨后的訴狀中,Anthropic指控政府濫用本應針對外國威脅的法規,對一家美國公司實施前所未有的懲罰性制裁,理由僅僅是該公司公開堅持兩條極其有限的AI使用限制。對外,Anthropic把這起訴訟描述成“捍衛美國企業言論自由”和“約束行政權越線”的案例;對內,它則在給政府與軍方傳遞一個微妙信號:渴望合作,但“要我放棄底線”的后果是,雙方一起走進法院。
值得注意的是,Anthropic并沒有在訴狀里宣稱自己是“和平主義者”或“反戰公司”。相反,CEO 達里奧·阿莫迪(Dario Amodei)在多份公開聲明中反復強調,Anthropic堅信AI應當用于幫助美國和盟友,Anthropic也公開表示其模型已被部署到情報分析、建模與仿真、作戰規劃、網絡行動等國家安全任務中。換句話說,這家公司是在明確接受“AI軍民深度融合”的前提下,試圖在極少數高風險場景上畫出“不做”的窄邊界。它起訴的并不是軍方的軍購邏輯,而是行政權在施壓一家大型承包商時,是否還能容得下哪怕一點點“不完全服從”。
這讓Anthropic的形象帶有了一種拉扯:在支持者眼中,它在安全主義框架內豎起最后兩塊路標;在批評者眼中,它不過是在充分獲利的前提下,對少數象征性議題進行姿態管理。但無論評價如何,在美國法律體系里,Anthropic已經把“AI公司與國家安全機構談判紅線”的問題,轉化為一個可以被法院書寫判詞的現代憲法問題。這也意味著,未來AI企業與政府的博弈不再只是說服、游說和輿論,而是明文寫進法律教科書的司法判例,誰能在這個層面上“立規矩”,誰就有機會定義接下來至少十年的行業形態。
二、OpenAI在安全話術與現實權力之間走鋼絲
在Anthropic沖突激化的幾小時內,OpenAI CEO山姆·奧爾特曼(Sam Altman)宣布與五角大樓達成協議:五角大樓同意不將OpenAI模型用于完全自主武器,也不會用于對美國公民的大規模監控。為什么看似高度相似的紅線,Anthropic因為堅持而被拉黑,OpenAI則因為“帶著紅線”加入體系?
原因在于OpenAI走的是另一條更具制度協商色彩的路徑。具體說,是用一套極其細致的“倫理條款”嵌入與五角大樓的合作協議,希望通過“合同+技術棧”而不是“訴訟+紅線”來限制國家安全機構對其模型的使用邊界。
但這套設計很快引來權利組織和技術觀察者的審視。技術與公民自由團體指出,OpenAI協議中關于隱私和監控的條款,用的是典型的法律合規型表述:只要符合第四修正案、《國家安全法》和情報法等現有框架,相關使用就被視為合規。但問題也正在于此,正是這些框架在過去二十年里承載了PRISM等大規模監控項目,因此把“不得用于大規模監控”限定在“現有法律允許范圍內”,在批評者看來更像是將問題外包給原本就被質疑的制度本身。電子前哨基金會直言,這種“法律合規+內部技術防火墻”的組合,對情報機構的實際約束力是高度存疑的,而且缺乏真正可審查的透明度與問責機制。
另一方面,OpenAI內部強調,它并不把約束寄托在官方承諾的善意上,而是試圖通過分層安全棧、部署架構限制、帶有安全許可的工程師深度嵌入等手段,讓一些不可接受的用法在技術上難以落地。 這套構想的邏輯是,如果系統架構、訪問控制和模型訓練策略本身被設計為對某些類型的查詢和任務高度敏感,那么即便使用機構想滑向邊緣使用,也會在技術棧層面經常撞墻。
然而,對關注結構性權力的觀察者來說,這仍然構成不了足夠的安心理由。當OpenAI的模型一旦成為情報與軍事實踐中的基礎設施,即便起初設有大量護欄,仍難以避免在壓力和例外情境之下發生安全棧的逐步松動。在戰爭、恐襲、選舉干預等高壓時刻,例外狀態一向是擴權和濫用的溫床,而技術公司在這種環境下往往難以保持原始承諾不被重寫。對OpenAI而言,在接單和守住承諾之間,真正的壓力測試還沒有到來。
三、xAI與“數字軍火商”Palantir的另一極端
如果說Anthropic和OpenAI還努力在公共話語上強調某種道德底色,那么xAI和Palantir則構成了譜系另一端的現實主義樣本。根據Axios等多家美國媒體報道,xAI在與五角大樓的合作中明確接受了所有合法用途的條款,為其Grok模型在機密系統中的部署打開大門。報道指出,之前只有Anthropic的Claude被允許進入最敏感的情報和武器開發環境,如今,隨著五角大樓與Anthropic在安全護欄問題上激烈對立,軍方轉而引入Grok作為替代選項。與Anthropic堅持紅線相反,xAI在公開表述中強調的是在合法范圍內淡化意識形態約束,擴大模型可用性。
這種立場在短期內對軍方具有明顯吸引力:在戰場環境和高強度對抗中,決策者往往希望工具限制更少且聽話。公開信息顯示,2025年7月,美國國防部CDAO向xAI授予了一份上限為2億美元的合同,用于開發適用于不同任務領域的agentic AI workflows;同年9月,GSA又通過OneGov協議把Grok 4和Grok 4 Fast納入聯邦采購體系;到2026年2月,Axios進一步報道稱,xAI已與五角大樓達成協議,使Grok進入classified systems,可用于最敏感的情報分析、武器開發和戰場相關任務。這更像是一種供應鏈的博弈,當一些供應商試圖以法律和倫理條款提高使用門檻時,自設紅線更少的承包商往往更容易獲得機會。對xAI而言,這種定位也強化了它面向政府與國家安全體系的商業路徑。在公眾平臺上,它仍是一個面向大眾的聊天模型,但在封閉系統里,它正成為美國國家安全基礎設施的一部分。
與xAI不同,Palantir已經在烏克蘭戰場上以極其具體、甚至可量化的方式展示了“AI軍火商”的形象。美聯社等多家權威媒體報道,Palantir的軟件通過整合衛星圖像、無人機視頻、雷達和前線士兵上傳的數據,為指揮官提供幾乎實時的戰場態勢,并利用AI模型生成最優打擊選項。公司CEO 亞里克斯·卡普(Alex Karp)甚至宣稱,Palantir系統在烏克蘭負責了大部分的目標選定,用他的說法,這是通過數字殺傷鏈來嚇阻對手。這種深度嵌入一個主權國家戰時決策過程的模式,在冷戰與反恐戰爭年代幾乎難以想象,而在今天,它正成為某種常態。
同時,Palantir還在積極擴展戰后和平應用的敘事。Reuters和TIME等媒體報道顯示,其平臺被用來排雷、收集戰爭罪證據、安排難民回遷、甚至協助反貪。這種“戰場、重建、治理一體化”的技術敘述,將公司定位于一個更寬的國家能力建設框架之中,試圖誘導公眾接受這樣一種現實:在21世紀,能夠駕馭數據、模型和算力的企業,天然就是國家安全與國家治理生態的一部分,不可能簡單被劃到軍工或民用的哪一側。于是,數字軍火商不再只是武器提供者,而是戰場、政務與社會治理的系統集成商。
四、“底線”究竟能劃在什么地方?
把Anthropic、OpenAI、xAI和Palantir放在同一張地圖上,就會看到一個現實問題,美國國家安全體系是AI公司難以忽略的最大金主之一。五角大樓和情報機構越來越把AI模型當作國家安全基礎設施的新一環來看待,他們不再只是采購現成軟件,而是在部署架構、使用邊界和安全治理上提出越來越深的制度性要求。在這種格局下,任何一家頭部AI公司若想完全遠離國家安全,在政治上、商業上都將會蒙受巨大損失;烏克蘭戰場、伊朗戰事、網絡攻防和輿論戰等等,都是對AI能力最迫切、對預算最不吝嗇的場景。這就是現實。
于是,回到話題開頭我們發現,這不僅是Anthropic面臨的,而是所有頭部AI都面的問題:不是要不要接國家安全的單,而是在什么條件下接單。
Anthropic試圖用司法訴訟,將兩條使用禁區寫入一個公開、可審查的法律爭議之中。OpenAI試圖用合約條款與技術棧,把自己的安全承諾嵌進閉門執行的合作框架。xAI選擇接受所有合法用途,把用途邊界交給現有國家法律與決策者。Palantir則干脆以AI軍火商的姿態,把守護西方當作公司使命敘事的一部分,用實戰戰績爭取更多委托權。同一個美國國家安全環境,幾家AI企業正在從不同角度在詮釋和定義他們自身能在“國家—市場—技術”三角關系里占據什么位置。
對于關心AI長期治理的觀察者來說,關鍵并不在于哪家公司在短期內贏得更多合同,或者在哪一個具體案例上顯得“更有良心”。真正值得追問的真問題是:
第一,AI公司能否在與國家安全機構合作的同時,保有一定程度的退出權和拒絕權,而不因此遭到制度性的報復性制裁。如果Anthropic的訴訟最終被法院認定為政府越權,那么至少會對今后行美國政府利用黑名單、供應鏈工具來懲罰不夠聽話的供應商形成某種約束。
第二,開放社會能否建立起獨立于執行機構之外的監督機制,讓OpenAI之類的安全承諾,不只是內部博客和技術白皮書,而是在一定程度上接受外部審計與民間組織質詢。一旦國家安全成為免于討論的領域,任何以之為由的技術部署,都可能借機逃避民主問責。
第三,隨著Palantir式的戰場AI平臺越來越成為常態,戰爭與和平之間的邊界是否會進一步被算法模糊。當戰場感知、目標選擇和殺傷鏈優化高度依賴AI平臺時,各國對技術供應商的依賴將愈發根深蒂固,民主體制與公眾社會對這些系統性基礎設施的掌控力則可能同步下滑。在這樣的格局下,AI企業可能不只是高科技公司,而是某種意義上的準主權行為體,它們以軟件和算力的形式,實質性劃定戰爭與監控的現實邊界。
正因為如此,Anthropic狀告美國政府這件事,本身就比這家公司更重要。無論最終誰贏誰輸,判決都將向整個行業傳遞一個清晰信號,當下美國AI在涉及國家安全領域的底線究竟還能劃在什么地方,在傳統的法律契約里?在AI技術系統架構里?還是在五角大樓的權杖里。■
掃碼入群可參加全年至少12場精彩閉門研討
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.