![]()
一份合同談崩,能讓美國總統親自下令封殺一家公司。Anthropic(人工智能初創公司)上個月剛拿到五角大樓的訂單,轉眼就被列入"供應鏈風險"黑名單,理由是它拒絕修改用戶協議。加州北區法官Rita Lin今天出手攔截,從立案到裁決只用了不到一周。
這場沖突的導火索藏在合同細節里。國防官員要求Anthropic在條款中加入"所有合法用途均可"的表述,相當于給軍方使用其大語言模型Claude(克勞德)開綠燈。Anthropic的回應很干脆:不行。公司擔心這套系統可能被用來開發完全自主武器,或者轉向監控美國民眾。
總統令跟著就來了。特朗普要求所有聯邦機構六個月內停用Claude,國防部長Pete Hegseth隨即把Anthropic釘上風險名單。這套組合拳的速度,讓硅谷想起當年TikTok的遭遇——只不過這次動手的理由不是數據安全,而是一家公司"太有原則"。
Anthropic的反擊路徑選得很刁鉆。它沒有糾纏合同違約,而是直接訴諸憲法:第一修正案保護言論自由,第五修正案保障正當程序。公司指控政府因其AI安全立場實施報復,且未給予申訴機會就貼上標簽。
法官的裁決書撕開了行政命令的縫隙
Rita Lin的措辭不留情面。"被告將Anthropic列為'供應鏈風險',很可能既違法又武斷專橫,"她寫道,"戰爭部(國防部舊稱)從Anthropic堅持使用限制的坦誠態度中,推斷不出任何可能使其成為破壞者的依據。"
這份臨時禁令的邊界很清晰:它不強迫國防部繼續合作,也不阻止軍方轉向其他AI供應商——前提是"符合適用法規、成文法及憲法條款"。換句話說,政府可以換供應商,但不能因為對方講規矩就給人穿小鞋。
Anthropic的回應保持了它一貫的公關調性。"雖然這起訴訟對保護Anthropic、客戶和合作伙伴是必要的,"公司聲明稱,"我們的重點仍在于與政府建設性合作,確保所有美國人都能從安全可靠的AI中受益。"
這套話術翻譯過來就是:官司要打,但生意也想做。
Claude的安全鎖設計成了雙刃劍
理解這場沖突,得先看清Anthropic的產品哲學。與OpenAI的GPT或Google的Gemini不同,Claude從架構層面嵌入了"憲法AI"(Constitutional AI)機制——一套自我約束的規則集,試圖在訓練階段就過濾有害輸出。
這種設計讓Claude在企業客戶中口碑不錯。銀行用它處理敏感文檔,律所用它檢索判例,醫療機構試探性地接入病歷分析。但同樣的機制,在國防場景里成了障礙。
軍方想要的是什么?根據公開招標文件,國防部的AI需求覆蓋情報分析、后勤優化、模擬推演,以及——雖然官方措辭謹慎——"自主系統決策支持"。最后一項的模糊空間,正是Anthropic拒絕妥協的核心。
公司創始人Dario Amodei和Daniela Amodei兄妹的背景值得注意。兩人出自OpenAI,2021年因安全理念分歧出走創業。Dario Amodei多次公開警告"超級智能"的失控風險,Daniela Amodei則主導建立了Anthropic的負責任擴展政策(Responsible Scaling Policy)。
這對兄妹把安全當成了差異化賣點,也當成了道德護城河。問題是,當客戶是地球上軍費開支最大的機構時,這條河是護住自己,還是困住自己?
AI合同戰的冰山一角
![]()
五角大樓的AI采購正在經歷結構性膨脹。2024財年,國防部在人工智能相關項目上的支出超過18億美元,涉及600余個獨立項目。Palantir、Anduril、Scale AI等防務科技新貴分食蛋糕,傳統巨頭如微軟、亞馬遜、Google也在爭奪"聯合戰爭云"(Joint Warfighting Cloud Capability)的巨額訂單。
Anthropic的入局原本是個信號:純民用AI公司開始撬動國防市場。它的挫敗則揭示了另一層現實——安全承諾與軍事需求之間的張力,遠比商業談判復雜。
一個對比案例是OpenAI。該公司2024年初修改服務條款,刪除"禁止軍事用途"的明確表述,改為禁止"造成傷害"的寬泛框架。這一調整被解讀為向國防合同敞開大門,隨后 indeed 拿下了美國空軍的生成式AI試點項目。
Anthropic選擇了相反路徑。它寧愿失去聯邦市場,也要守住條款底線。這種"頭鐵"在硅谷引發兩極評價:有人視為道德勇氣的標桿,有人批評為書呆子式的商業自殺。
法官今天的裁決暫時緩解了后者的擔憂。但臨時禁令不等于終局勝利——案件仍在審理,憲法主張能否成立,還要看后續舉證。
第一修正案能保護代碼嗎?
Anthropic的法律策略觸及了一個尚未充分探索的領域:AI模型的輸出,是否構成受憲法保護的"言論"?
傳統上,軟件代碼曾被法院認定為言論表達——1999年Bernstein訴美國司法部案中,第九巡回法院裁定加密代碼受第一修正案保護。但大語言模型的生成內容是否同理,尚無明確判例。
公司的訴狀試圖建立一條鏈條:Claude的響應是其訓練哲學和安全約束的產物,限制這些約束等于強迫改變"表達內容"。政府則很可能反駁:合同條款屬于商業行為,不涉及言論管制。
Rita Lin的初步裁決暗示了她對政府動機的懷疑。"武斷專橫"(arbitrary and capricious)是行政法上的致命批評,意味著決策缺乏合理依據。她特別指出,Anthropic的"使用限制"是公開透明的,從中推導出"供應鏈風險"屬于邏輯跳躍。
這一判斷如果維持,可能影響更廣泛的AI監管框架。聯邦機構近年頻繁以"國家安全"為由限制技術合作,從半導體出口管制到數據跨境流動,"供應鏈風險"已成為萬能標簽。法院若要求更嚴格的舉證標準,將重塑行政部門的行動空間。
特朗普政府的反應值得關注。總統令的措辭將Anthropic的安全立場定性為"不配合聯邦需求",這種敘事與本屆政府對"覺醒資本主義"(woke capitalism)的批判一脈相承。如果司法系統持續掣肘,行政分支可能尋求立法或監管規則的修改。
短期來看,Anthropic的聯邦業務仍處于凍結狀態。臨時禁令只阻止了"供應鏈風險"標簽的法律效力,并未恢復合同執行。公司聲明中"建設性合作"的措辭,暗示雙方可能在法庭外尋找出口——比如重新談判條款措辭,或限定Claude在國防場景中的具體用途。
一個技術細節可能左右結局:Claude的"憲法AI"機制是否允許模塊化調整?如果安全約束可以針對特定客戶或場景開關,Anthropic或許能找到既保全面子又不違背原則的折中方案。但公司過往表態顯示,它對"滑向武器開發"的警惕是結構性的,不是修辭性的。
這場官司的旁聽席上,坐著整個AI行業的焦慮。當技術能力超越社會共識,每一家公司都面臨類似抉擇:誰的錢能賺,誰的不能?邊界該由自己畫,還是等監管來畫?Anthropic選擇了前者,并為此付出了聯邦市場的代價——至少目前如此。
法官的裁決讓它暫時喘了口氣。但真正的問號懸在更遠處:如果下一家AI公司做出不同選擇,如果安全承諾與商業擴張的沖突以另一種形式爆發,今天的判例會成為護欄,還是只是延遲了碰撞的時間?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.