一邊是手握尖端算法的科技先鋒,一邊是執掌國家機器的軍事巨頭。當“代碼安全”撞上“軍事指揮權”,一場關于AI控制權的法庭對決,正揭開未來戰爭模式的冰山一角。
這場糾紛源于Anthropic開發的旗艦大模型 Claude 進入美國五角大樓(Pentagon)機密網絡后的控制權歸屬。五角大樓此前公開質疑,Anthropic 在其軍事化部署的 AI 系統中隱藏了“遠程自毀開關”。軍方擔心,一旦公司認為軍事行動違反了其“企業價值觀”,隨時可以從后臺讓系統癱瘓。
![]()
對此,Anthropic 表現得頗為委屈。他們在訴狀中明確表示,交付給軍方的 AI 系統是“靜態模型”。這意味著,模型一旦通過離線環境部署在軍方內部網絡,就如同潑出去的水,Anthropic 的技術人員既無法登錄系統進行修改,也無法通過遠程指令使其失效。所謂“操作否決權”,在技術邏輯上并不存在。
為什么五角大樓會對一家美國本土公司如此戒備?根源在于雙方在“AI倫理”上的南轅北轍。
Anthropic 的底線:作為一家以“安全”為立身之本的公司,Anthropic 一直堅持嚴苛的 AI 憲法。他們明確拒絕將 Claude 用于大規模監控和全自動武器系統(即“殺手機器人”)。
![]()
五角大樓的訴求:軍方則強調系統必須服從“所有合法的軍事用途”。在戰火紛飛的博弈中,軍方不希望手中的“智能利劍”在關鍵時刻因為觸發了某種“道德算法”而拒絕執行任務。
這種深層矛盾在今年早些時候徹底爆發。五角大樓隨后祭出了大殺器:將 Anthropic 標記為“供應鏈風險”。這個標簽通常只給那些與敵對大國有關聯的企業。這一紙禁令,不僅斷絕了 Anthropic 與國防部的合作,更讓其在整個聯邦政府采購名單中面臨被“封殺”的窘境。
面對政府的鐵拳,Anthropic 選擇拿起法律武器。目前,這場法律戰呈現出戲劇性的“南北分歧”:
華盛頓特區法院:態度強硬,駁回了公司要求暫停“風險標簽”的申請,理由是涉及國家安全,行政分支擁有較大的裁量權。
![]()
加利福尼亞州法院:偏向企業,暫時阻止了行政指令的執行,認為政府在缺乏實質證據的情況下剝奪企業的經營權存在程序瑕疵。
由于兩地法院判決相悖,Anthropic 目前陷入了一種奇特的邊緣地帶:它依然不能觸碰五角大樓的訂單,但暫時保住了與其他民政部門合作的火種。
這場被稱為“羅生門”的糾紛,實際上反映了人類社會在進入 AI 軍事化時代后的集體焦慮。
首先是技術黑箱帶來的不信任感。即使 Anthropic 堅稱沒有后門,但對于軍方而言,無法理解、無法完全掌控的代碼就是潛在的威脅。在戰爭這種容錯率為零的場景下,任何來自第三方的限制都被視為對主權的侵犯。
![]()
其次是科技公司權力的擴張。當私人企業的算法邏輯開始左右軍事決策時,究竟誰才是戰爭的“統帥”?是按下按鈕的將軍,還是編寫代碼的程序員?特朗普總統對此的激烈抨擊——稱其為“左翼瘋子”運營的公司——雖然帶有濃厚的政治色彩,但也折射出傳統政權對新興科技巨頭試圖“綁架”國家政策的極度不安。
Anthropic 與五角大樓的決裂,標志著 AI 技術“純真年代”的終結。
這不再僅僅是關于“自毀開關”的技術爭論,而是一場關于技術倫理、國家安全與商業自由的終極博弈。在未來,隨著 AI 深度介入國防核心,如何建立一套既能發揮算法威力,又能確保指揮權絕對統一的機制,將是擺在所有國家面前的難題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.