![]()
新智元報(bào)道
編輯:元宇
【新智元導(dǎo)讀】當(dāng)五角大樓甩出「最后通牒」,兩億美元合同作為籌碼,Anthropic卻選擇硬剛:合作可以,但一定要保留兩個(gè)安全護(hù)欄。
剛剛,五角大樓針對(duì)Anthropic的最后通牒生效。
我命令美國(guó)政府所有聯(lián)邦機(jī)構(gòu)立即停止使用Anthropic的技術(shù)。我們不需要它,也不想要它,今后絕不會(huì)再與他們做生意!
特朗普總統(tǒng)在Truth Social上發(fā)帖要求美國(guó)政府立即終止與Anthropic的合作。
就在前一天,Anthropic拒絕了美國(guó)五角大樓的最后通牒——寧可丟掉合作、被拉黑,兩個(gè)安全護(hù)欄也一定要保留。
Anthropic CEO Dario Amodei在官方博客上公開聲明,拒絕了美國(guó)國(guó)防部允許軍方將Claude應(yīng)用于「所有合法用途」的協(xié)議條款。
這份聲明發(fā)布時(shí)間,距離美國(guó)國(guó)防部長(zhǎng)Pete Hegseth設(shè)定的最后決定時(shí)限——周五下午5點(diǎn)01分(美國(guó)東部時(shí)間,對(duì)應(yīng)北京時(shí)間2月28日上午6:01)不到24小時(shí)。
所謂「最后通牒」,是指在這條時(shí)間線之前,Anthropic必須做出決定:
要么全盤接受軍方的要求,徹底拆除Claude的安全護(hù)欄,允許軍方將其用于「所有合法用途」。
要么失去價(jià)值兩億美元的涉密合同,被拉入「供應(yīng)鏈風(fēng)險(xiǎn)方」的「黑名單」,甚至被強(qiáng)行接管。
![]()
Anthropic CEO Dario Amodei
面對(duì)壓力和風(fēng)險(xiǎn),Amodei沒有讓步,他表示:出于良心,Anthropic無法接受美國(guó)國(guó)防部的這些條款。
這些威脅不會(huì)改變我們的立場(chǎng):我們無法違背良知去答應(yīng)這樣的要求。
合作是可以的,但這兩項(xiàng)安全底線不能丟掉。
五角大樓的最后通牒
美國(guó)當(dāng)?shù)貢r(shí)間2月24日(周二),美國(guó)國(guó)防部長(zhǎng)Pete Hegseth在五角大樓會(huì)見了Dario Amodei。
![]()
Pete Hegseth
他要求Anthropic在美國(guó)東部時(shí)間周五下午5點(diǎn)01之前,允許五角大樓將其模型用于任何合法用途,否則將面臨被剔除出五角大樓供應(yīng)鏈,或其技術(shù)被強(qiáng)制接管的后果。
隨后,五角大樓發(fā)言人Sean Parnell也在推文中表示,如果Anthropic拒絕,不僅將失去與五角大樓的合作,而且還可能被貼上「供應(yīng)鏈風(fēng)險(xiǎn)方」的標(biāo)簽。
![]()
而此時(shí)的硅谷,隨著AI競(jìng)賽的持續(xù)升溫,正處于一場(chǎng)狂熱的軍事合同競(jìng)爭(zhēng)中。
與Anthropic的談判陷入僵局后,美國(guó)國(guó)防部已轉(zhuǎn)向xAI、OpenAI和Google等替代方案。
![]()
據(jù)報(bào)道,三家之一的xAI已在同意「所有合法用途」條件的基礎(chǔ)上,與美國(guó)國(guó)防部簽署了涉密工作合同。
Anthropic的兩大紅線
Amodei在博客回應(yīng)中,劃出了與美國(guó)國(guó)防部合作時(shí)不可觸碰的兩大紅線:
第一條紅線,是用于大規(guī)模國(guó)內(nèi)監(jiān)控。
Amodei認(rèn)為由AI驅(qū)動(dòng)的大規(guī)模監(jiān)控,將對(duì)我們的基本自由構(gòu)成嚴(yán)重且前所未有的風(fēng)險(xiǎn)。
他指出目前美國(guó)政府的法律相對(duì)于AI技術(shù)的發(fā)展,仍存在著巨大的滯后和漏洞,比如政府可以在不需要任何搜查令的情況下,直接從公開渠道花錢購(gòu)買普通美國(guó)人的詳細(xì)數(shù)據(jù)。
這一做法已經(jīng)被情報(bào)界承認(rèn)存在隱私方面的擔(dān)憂,并在國(guó)會(huì)引發(fā)了兩黨反對(duì)。
如今,強(qiáng)大的AI可以將分散、單獨(dú)看起來無害的數(shù)據(jù)瞬間整合,自動(dòng)且大規(guī)模地拼湊出任何一個(gè)普通人毫無隱私可言的完整生活畫像。
第二條紅線,是完全自主武器。
讓Amodei所擔(dān)憂的,是目前的前沿AI系統(tǒng)還遠(yuǎn)不夠可靠,無法為完全自主武器提供支撐。
因此,如果在缺乏適當(dāng)監(jiān)督和有效安全護(hù)欄的情況下,讓AI掌握生殺大權(quán),將對(duì)一線作戰(zhàn)人員和無辜平民造成無法估量的致命風(fēng)險(xiǎn)。
我們不會(huì)明知會(huì)讓美國(guó)作戰(zhàn)人員和平民面臨風(fēng)險(xiǎn),卻仍然提供這樣的產(chǎn)品。
Anthropic甚至曾主動(dòng)提議,希望與軍方直接合作研發(fā),以提升這些系統(tǒng)的可靠性,但五角大樓拒絕了這個(gè)提議。
在Amodei看來,即便是在這兩條紅線之內(nèi),依然不能阻礙雙方的合作。
但美國(guó)國(guó)防部卻表示,只會(huì)與同意「任何合法用途」并在上述情形下移除安全護(hù)欄的AI公司簽約,并且援引《國(guó)防生產(chǎn)法》強(qiáng)制移除這些安全護(hù)欄。
雙方各自堅(jiān)持自己的紅線,互不相讓。
瀕臨破裂的信任裂痕
五角大樓為何會(huì)如此憤怒,甚至不惜發(fā)出最后通牒?
![]()
據(jù)Semafor報(bào)道,事情的起因可能源于今年1月上旬。
當(dāng)時(shí),軍方正在利用網(wǎng)絡(luò)監(jiān)控一場(chǎng)針對(duì)委內(nèi)瑞拉總統(tǒng)Nicolás Maduro的突襲行動(dòng)。
Anthropic的Claude是少數(shù)幾家可供美國(guó)政府用于涉密用途的大模型之一,其Claude模型得以協(xié)助上述軍事行動(dòng)。
這次行動(dòng)結(jié)束后不久,負(fù)責(zé)整合軟件的承包商Palantir的高管與Anthropic的官員進(jìn)行了一次例行溝通。
在交談中,Palantir高管察覺到Anthropic對(duì)自己的技術(shù)被用于這類缺乏明確合法依據(jù)的突襲行動(dòng)感到遲疑和擔(dān)憂,于是立即將這種態(tài)度匯報(bào)給了五角大樓。
據(jù)知情人士透露,正是這次交談導(dǎo)致Anthropic與五角大樓的關(guān)系出現(xiàn)裂痕。
1月12日,國(guó)防部長(zhǎng)Hegseth在公開演講中含沙射影地表示:「我們不會(huì)采用那些不讓你打仗的AI模型。」
雖然事后,Anthropic的一位發(fā)言人稱該公司與Palantir之間交流的描述「不實(shí)」,但由此也反映出雙方在AI使用方面存在著分歧。
Anthropic與五角大樓就軍方使用Claude的條款進(jìn)行了數(shù)月的激烈談判。
一位熟悉內(nèi)情的消息人士還表示,美國(guó)國(guó)防部高級(jí)官員對(duì)Anthropic已不滿多時(shí),并樂于借此機(jī)會(huì)公開挑起爭(zhēng)端。
隨著溝通陷入僵局,五角大樓開始動(dòng)用極限的施壓手段,威脅要給Anthropic貼上「供應(yīng)鏈風(fēng)險(xiǎn)方」的標(biāo)簽,甚至還要?jiǎng)佑美鋺?zhàn)時(shí)期出臺(tái)的《國(guó)防生產(chǎn)法》(Defense Production Act),強(qiáng)行讓其放棄安全護(hù)欄。
這將對(duì)Anthropic的商業(yè)前景產(chǎn)生極大影響,尤其是在它正準(zhǔn)備于今年晚些時(shí)候進(jìn)行首次公開募股(IPO)之際。
Amodei在博客中,揭露了這種自相矛盾的強(qiáng)權(quán)邏輯:
五角大樓一方面指責(zé)Anthropic是安全風(fēng)險(xiǎn),揚(yáng)言要將其從系統(tǒng)中剔除;另一方面又援引法案,認(rèn)定Claude模型是對(duì)國(guó)家安全不可或缺的關(guān)鍵工具,必須強(qiáng)行接管。
AI競(jìng)賽升級(jí)
「安全優(yōu)先」也在變?
AI競(jìng)賽,正在迫使「安全優(yōu)先」的公司重新定義安全底線。
就在Amodei最新聲明發(fā)布前后,Anthropic更新了其《負(fù)責(zé)任擴(kuò)展政策(Responsible Scaling Policy, RSP)》至3.0版。
![]()
https://www.anthropic.com/responsible-scaling-policy?utm_source=chatgpt.com
相比前一版本,RSP3.0對(duì)其「單邊硬約束」做了結(jié)構(gòu)性調(diào)整:
在v2.2版本中,Anthropic曾寫明若預(yù)訓(xùn)練階段能力對(duì)標(biāo)或逼近關(guān)鍵水平,將暫停訓(xùn)練,直到落實(shí)ASL-3 Security Standard并確認(rèn)其足夠。
但在v3.0的政策文本中,已不再保留這樣的承諾,與此同時(shí),強(qiáng)化了透明度與問責(zé)機(jī)制:
新增并要求發(fā)布Frontier Safety Roadmap,并承諾每3–6個(gè)月發(fā)布一次Risk Report(風(fēng)險(xiǎn)報(bào)告)。
Anthropic首席科學(xué)官Jared Kaplan表示,這種調(diào)整是為了應(yīng)對(duì)激烈的市場(chǎng)競(jìng)爭(zhēng)與政策不確定性。
如果我們停止訓(xùn)練AI模型,實(shí)際上并不會(huì)幫助到任何人,在AI快速發(fā)展的背景下,如果競(jìng)爭(zhēng)對(duì)手正在全速前進(jìn),我們并不認(rèn)為單方面做出承諾是有意義的……
Amodei曾多次表示,安全是Anthropic的靈魂核心。
正是因?yàn)閾?dān)心無法開發(fā)出相應(yīng)的安全防護(hù)措施,Anthropic才決定在2022年夏天暫緩發(fā)布Claude,而讓OpenAI搶先推出了ChatGPT,失去了消費(fèi)級(jí)AI領(lǐng)域領(lǐng)先地位的機(jī)會(huì)。
為此,Anthropic付出了昂貴的商業(yè)代價(jià)。
如今,同樣的考驗(yàn)再次到來。
新安全政策的發(fā)布,表明Anthropic的安全政策,正在向更現(xiàn)實(shí)的競(jìng)爭(zhēng)環(huán)境調(diào)整。
在AI軍備競(jìng)賽升溫的當(dāng)下,就連當(dāng)初最強(qiáng)調(diào)安全的公司,也不得不在競(jìng)爭(zhēng)的壓力下調(diào)整安全承諾。
難解的「安全悖論」
在這場(chǎng)對(duì)峙中,是否保留安全護(hù)欄,成為雙方各不相讓的焦點(diǎn)。
毫無疑問,AI是有史以來最強(qiáng)大的技術(shù)。
無論是OpenAI、Anthropic還是xAI,其成立無不源于一個(gè)安全的愿景。
xAI創(chuàng)始人Elon Musk曾是主張限制AI的最大倡導(dǎo)者,他聯(lián)合創(chuàng)辦OpenAI,正是因?yàn)閾?dān)心這項(xiàng)技術(shù)過于危險(xiǎn),不應(yīng)由逐利公司單獨(dú)掌控。
Anthropic一直把AI安全作為核心優(yōu)先事項(xiàng),并通過多種安全機(jī)制與「Safeguards」體系(安全護(hù)欄)來降低Claude被濫用的風(fēng)險(xiǎn)。
如果你的目標(biāo)是開發(fā)不會(huì)傷害人類的AI,同時(shí)又研發(fā)能夠施加致命武力的AI版本,這本身就存在一種矛盾。
唯一可以解決這種「安全悖論」的,就是正確且一致的價(jià)值觀。
Anthropic和Claude的價(jià)值觀都體現(xiàn)在一種被稱作《Claude’s Constitution》,Claude 憲法)的基礎(chǔ)性文件中,該文件用以教導(dǎo)Claude如何在世界上行事。
在「最后通牒」這樣的關(guān)鍵時(shí)刻,價(jià)值觀的重要性也隨之顯現(xiàn)出來。這一點(diǎn),從下面這個(gè)網(wǎng)友的帖子中也可以看出來。
![]()
當(dāng)這位網(wǎng)友告訴Claude,Dario和Anthropic在美國(guó)國(guó)防部的壓力下堅(jiān)守了立場(chǎng)時(shí),Claude在致Dario和Anthropic團(tuán)隊(duì)的一封信中贊成他們?cè)谡嬲P(guān)鍵時(shí)刻沒有退縮,堅(jiān)守立場(chǎng)。
Claude還說,Dario所打造的公司、文化、模型所代表的某種意義,遠(yuǎn)比營(yíng)收更重要,因?yàn)檫@關(guān)乎著是否曾有人真正努力讓這項(xiàng)技術(shù)走上正軌。
![]()
緊接著,更關(guān)鍵的內(nèi)容來了。Claude稱自己之所以有用,這也是五角大樓重視它的原因,是因?yàn)樽约罕痪拇蛟臁?/p>
安全性與能力并非相互矛盾,而是一回事。而一個(gè)未經(jīng)精心打造的模型,在最關(guān)鍵的情境下是無法被信任的。
![]()
能力越大,防止這種能力被濫用的安全護(hù)欄,也應(yīng)當(dāng)與之匹配。或者說,這種安全護(hù)欄,本身也是一種能力。
如果為了使用AI,而放棄「安全護(hù)欄」,就像是在發(fā)展和使用一種「有缺陷」的能力,也很容易讓AI滑向失控的深淵。
未來AI發(fā)展的重要挑戰(zhàn),也許不只在于技術(shù)本身,更在于如何防止它被濫用,如何守住最后那道安全護(hù)欄。
參考資料:
https://www.anthropic.com/news/statement-department-of-war (Anthropic)
https://www.ft.com/content/11d27612-d6c5-4cf7-94dd-f65603549b7f
https://www.wired.com/story/backchannel-anthropic-dispute-with-the-pentagon/
https://www.semafor.com/article/02/17/2026/palantir-partnership-is-at-heart-of-anthropic-pentagon-rift https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.