![]()
2026年2月27日(美東時(shí)間),美國總統(tǒng)特朗普在Truth Social上宣布,向所有聯(lián)邦政府機(jī)構(gòu)下令:即刻停止使用Anthropic的一切技術(shù)。
國防部長皮特·赫格斯(Pete Hegseth)隨即把Anthropic列為「國家安全供應(yīng)鏈風(fēng)險(xiǎn)」,并宣布所有與軍方有業(yè)務(wù)往來的承包商,即日起禁止與Anthropic合作。
這是美國政府對本土科技公司動(dòng)用的最強(qiáng)硬手段之一。
起因,是Anthropic的一個(gè)拒絕——而且不是第一次。
一、事情是怎么開始的:2億美元合同埋下的伏筆
2025年7月14日,美國國防部(現(xiàn)改稱「國防戰(zhàn)爭部」)與Anthropic簽署了一份上限為2億美元的「原型過渡協(xié)議」,目標(biāo)是在國家安全領(lǐng)域推進(jìn)前沿AI能力。
Anthropic的Claude模型由此被實(shí)際部署在美國政府的涉密網(wǎng)絡(luò)上,用于情報(bào)分析、作戰(zhàn)規(guī)劃模擬、網(wǎng)絡(luò)作戰(zhàn)支援等任務(wù)。Anthropic自稱是硅谷主要AI公司中第一家把模型部署進(jìn)涉密政府網(wǎng)絡(luò)的企業(yè)。
看起來是一樁雙贏生意:政府獲得前沿AI能力,Anthropic獲得政府合法性與收入。
但2026年1月,矛盾首次浮出水面。
國防部長赫格斯簽署了一份AI戰(zhàn)略備忘錄,要求所有國防部AI合同必須包含「任何合法用途」(Any Lawful Use)條款——承包商不得對軍方使用場景設(shè)置任何限制。
Anthropic的AI系統(tǒng)本身內(nèi)嵌了若干使用限制。這份備忘錄,正面要求Anthropic拆除這些限制。
談判由此進(jìn)入僵局。
二、Anthropic的兩條紅線:原則還是邊界
2026年2月26日,距國防部最后期限不足24小時(shí),Anthropic CEO Dario Amodei在公司官網(wǎng)發(fā)布了一封約800字的公開信。
信中,他劃出了兩條Anthropic拒絕放開的使用限制:
紅線一:不得用于大規(guī)模監(jiān)控美國公民。
Amodei寫道:「大規(guī)模的國內(nèi)監(jiān)控與民主價(jià)值觀根本不相容,會對我們的基本自由構(gòu)成嚴(yán)重的、全新的風(fēng)險(xiǎn)。」
紅線二:不得用于完全自主決策的致命性武器。
Amodei的解釋是技術(shù)層面的:「前沿AI系統(tǒng)根本還不夠可靠,無法獨(dú)立運(yùn)作致命性武器。在這類決策上讓AI系統(tǒng)擁有完全自主權(quán),會讓作戰(zhàn)人員和平民都面臨不可接受的風(fēng)險(xiǎn)。」
這兩條限制,聽起來都有道理。
但五角大樓的反駁同樣不是沒有依據(jù)。
軍方的立場是:美國現(xiàn)行法律已經(jīng)明確禁止針對本國公民的大規(guī)模監(jiān)控;完全自主武器的使用,同樣受《武裝沖突法》約束。這些限制不需要由一家私營AI公司來單獨(dú)設(shè)定和執(zhí)行。
換言之,政府的邏輯是:已有法律在管,不需要你來管。
而Anthropic的邏輯是:法律管不到的地方,我們先管。
這兩種立場,反映的是一個(gè)根本性的權(quán)力歸屬爭議:在AI被濫用的風(fēng)險(xiǎn)面前,誰是最后一道門?
三、五角大樓的反擊:威脅升級的三步棋
面對Anthropic的立場,國防部發(fā)出了強(qiáng)硬回應(yīng),設(shè)定2026年2月27日為最終期限,威脅逐級升級:
第一步:終止價(jià)值2億美元的國防合同。
第二步:將Anthropic列為「供應(yīng)鏈風(fēng)險(xiǎn)」。這意味著Anthropic將被禁止參與所有聯(lián)邦政府和國防項(xiàng)目,且其技術(shù)被整合進(jìn)Palantir、亞馬遜AWS等國防承包商業(yè)務(wù)的部分,也將面臨連鎖拆解。
第三步:援引《國防生產(chǎn)法》(Defense Production Act)——一部冷戰(zhàn)時(shí)期授權(quán)總統(tǒng)在國家安全緊急狀態(tài)下強(qiáng)制企業(yè)服從命令的法律。
Anthropic在公開信中不無諷刺地指出:「我們被告知,我們是構(gòu)成國家安全風(fēng)險(xiǎn)的威脅——同時(shí)又被告知,我們的技術(shù)對于國家防御是不可或缺的。這兩件事,不可能同時(shí)為真。」
四、最后期限:各家的不同選擇
2026年2月27日,最后期限到來。Anthropic沒有妥協(xié)。
特朗普隨即在Truth Social上點(diǎn)名Anthropic為「激進(jìn)左派AI公司」,下令全聯(lián)邦機(jī)構(gòu)立即停用。赫格斯正式宣布供應(yīng)鏈風(fēng)險(xiǎn)定級,現(xiàn)有合作方獲得6個(gè)月過渡期以切換供應(yīng)商。
與此同時(shí),其他AI公司做出了截然不同的選擇:
谷歌、xAI已接受了「任何合法用途」條款,配合軍方要求。
OpenAI走了第三條路:在Anthropic遭封禁的幾小時(shí)后,宣布與國防部達(dá)成新協(xié)議。OpenAI CEO Sam Altman表示,他們的協(xié)議以書面形式寫入了類似的安全原則——但同時(shí)他們拿到了合同。
這就產(chǎn)生了一個(gè)值得思考的問題:如果OpenAI能在書面上保留安全條款、同時(shí)接下政府生意,那Anthropic的「原則性拒絕」,究竟是更高的道德底線,還是一種談判策略的失敗?
沒有明確答案。但不同的市場選擇已經(jīng)擺在那里。
五、Anthropic自己的權(quán)力問題:誰授權(quán)了這道門?
這場爭端最值得深思的部分,不是Anthropic輸了還是贏了,而是它所揭示的一個(gè)更根本的問題:
Anthropic憑什么決定,AI的使用邊界在哪里?
Anthropic對所有用戶設(shè)置同樣的限制,包括企業(yè)、政府、軍方。他們不給任何人后門。這是一種徹底的「一視同仁」。
但這種「一視同仁」,本身是否也是一種權(quán)力的行使?
在傳統(tǒng)的武器行業(yè),槍械制造商不會對警察和軍隊(duì)的使用方式設(shè)置道德條件——那是法律和民主制度的工作。AI的特殊性在于:它的限制不嵌在硬件里,而嵌在代碼里。這讓AI公司天然成為「規(guī)則的制定者」,而這個(gè)角色,從來沒有經(jīng)過任何民主程序的授權(quán)。
Anthropic的立場,可以被解讀為負(fù)責(zé)任:他們在試圖防止最壞的場景,哪怕為此付出商業(yè)代價(jià)。
它同樣可以被解讀為傲慢:一家私營科技公司,單方面決定什么是一個(gè)主權(quán)國家的軍隊(duì)可以做、什么不可以做。
這兩種解讀,都有充分的理由。
Amodei在公開信中承認(rèn)了這個(gè)張力:「我們相信,是否以及如何使用Claude做出軍事決定,應(yīng)由美國國防戰(zhàn)爭部而非我們來決定。但在某些極端情況下……我們認(rèn)為,我們有必要?jiǎng)澇霾豢捎庠降牡拙€。」
「某些極端情況」——這個(gè)邊界,是Anthropic自己劃的。
寫在最后:一個(gè)沒有好答案的問題
Anthropic稱供應(yīng)鏈風(fēng)險(xiǎn)定級「法律上站不住腳」,并宣布將以法律手段提出挑戰(zhàn)。理由是:此類工具歷史上僅用于應(yīng)對華為等外國實(shí)體,從未被用于制裁本土企業(yè)。
這場法律角力,最終可能會為AI公司與政府之間的權(quán)力邊界寫下某種意義深遠(yuǎn)的判例。
但在那之前,有幾個(gè)懸而未決的問題值得每個(gè)關(guān)注AI發(fā)展的人去思考:
AI公司設(shè)置「使用護(hù)欄」,是在保護(hù)用戶,還是在擴(kuò)大自己對技術(shù)的控制權(quán)?
當(dāng)政府與AI公司的標(biāo)準(zhǔn)出現(xiàn)沖突,誰的判斷應(yīng)當(dāng)優(yōu)先?
如果Anthropic的做法是對的,那么接了合同的OpenAI意味著什么?如果OpenAI的做法是對的,那拒絕的Anthropic又意味著什么?
Anthropic用商業(yè)損失換了一個(gè)它認(rèn)為重要的立場。或許它是對的。或許它高估了自己對這個(gè)邊界的判斷能力。
但無論如何,這場對決所暴露的矛盾,并不會隨著Anthropic的失敗而消失——它只是被推遲到了下一次,由另一家公司、在另一個(gè)政府面前重新上演。
核心事實(shí)速覽
合同金額:
2億美元上限,2025年7月14日簽署
合同內(nèi)容:
情報(bào)分析、作戰(zhàn)規(guī)劃、網(wǎng)絡(luò)作戰(zhàn)支援(涉密網(wǎng)絡(luò))
五角大樓訴求:
「任何合法用途」條款,移除所有使用限制
五角大樓立場:
現(xiàn)行法律已有約束,無需企業(yè)單獨(dú)設(shè)定
Anthropic紅線:
禁止大規(guī)模監(jiān)控美國公民;禁止完全自主致命武器
最后期限:
2026年2月27日(星期五)
結(jié)果:
Anthropic拒絕 → 特朗普封禁令 → 供應(yīng)鏈風(fēng)險(xiǎn)定級
過渡期:
現(xiàn)有機(jī)構(gòu)獲6個(gè)月切換期
Anthropic回應(yīng):
稱定級「法律上站不住腳」,將提起法律挑戰(zhàn)
OpenAI動(dòng)向:
同日與國防部達(dá)成協(xié)議,聲稱書面寫入安全條款
谷歌/xAI:
已接受「任何合法用途」條款
Dario Amodei聲明:
2026年2月26日,約800字,發(fā)布于Anthropic官網(wǎng)
參考資料:
Statement from Dario Amodei on our discussions with the Department of War, Anthropic (Feb 26, 2026) https://www.anthropic.com/news/statement-from-dario-amodei-on-our-discussions-with-the-department-of-war
Pentagon designates AI firm Anthropic a 'supply chain risk', Washington Post (Feb 27, 2026)
Anthropic refuses DOD demand for unrestricted AI access, Breaking Defense (Feb 27, 2026)
其他綜合來源:CBS News, The Guardian, PBS 等。
(注:本文根據(jù)以上英文資料綜合編譯,內(nèi)容旨在呈現(xiàn)事件全貌,文中涉及的任何主觀判斷與結(jié)論均不代表硅星人官方立場。)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.