被美國戰爭部以“供應鏈風險”封殺的Anthropic,一紙訴狀,把五角大樓告上了法庭。與此同時,以谷歌首席科學家迪安(Jeff Dean)為首的約38位AI科學家、研究人員、工程師們,以個人的名義聯名向法庭遞交陳情書,表達對Anthropic的支持。他們全部來自OpenAI、谷歌DeepMind、谷歌。
媒體也報道,還未消氣的特朗普,可能將正式發布一道行政令,把Anthropic這種“覺醒”的AI,從聯邦政府的體系中剔除。
白宮和戰爭部雙管齊下,將令Anthropic這家風頭正健的公司遭受重大打擊,可能造成數十億美元的損失,而且對于一家正尋求上市的企業來說,在政府的黑名單上,也將成為其重大障礙。從某種意義上,Anthropic從法律上挑戰五角大樓等美國政府部門、機構和個人,也是一種自救行為。
Anthropic的訴狀,以及美國戰爭部副部長的回應,可以看到AI在進入戰爭這樣性命攸關的場景之中,正在面臨的一個新的悖論,它將因為對目標更精準更高效的打擊,而減少平民的傷亡;還是有可能因為技術不成熟甚至脫離了人類的控制,而產生意外無辜的傷亡?人類會接受哪一個?界限在哪里?誰來劃定?
![]()
2021年,7名前OpenAI員工離開OpenAI,創辦了Anthropic。他們出于對AI安全(safety)方向的憂慮,從誕生第一天起,就把"負責任地開發AI、最大化對人類的積極影響"寫進了公司章程。Anthropic還在特拉華州注冊為"公益公司"(Public Benefit Corporation),這一特殊法律結構要求董事會將安全、倫理與社會影響納入日常決策,而非唯利是圖。
然而,命運的走向充滿反諷。這家以"AI安全"為核心使命的公司,很快成為五角大樓這一全球最強大的軍事機器最依賴的AI神經系統。
罕見披露Claude軍事能力
從2023年開始,Anthropic開始系統性地布局進入美國政府市場。公司加入了AI安全(security)研究所聯盟,與聯邦政府合作開展AI安全研究和評估框架建設。它與主要云服務提供商建立戰略合作,并投入大量資源,獲得了聯邦風險與授權管理項目(Fed RAMP)的最高安全認證——這是云服務進入政府保密系統的入場券。
2024年,一個重要里程碑出現:Anthropic成為第一家與美國能源部合作、在最高機密環境中對AI模型進行測評的前沿AI實驗室。這不是普通的商業合作,這意味著Claude已經站在了美國國家安全基礎設施的門檻之上。
Anthropic還專門開發了"Claude Gov"系列模型——這是專為國家安全場景量身定制的版本,根據情報機構的直接反饋構建,具備對涉密信息的增強處理能力、對關鍵語言的更高精通度,以及對網絡安全數據的精密分析能力。與面向普通用戶的Claude不同,Claude Gov大幅放寬了在軍事和情報語境下的使用限制:它可以處理涉密文件,可以執行軍事行動分析,可以分析依法收集的境外情報——這些都是普通Claude被明確禁止的場景。
訴狀中有一段話,罕見地披露了Claude在軍事領域的具體能力:自主完成與攻防網絡作戰及漏洞檢測相關的復雜軟件工程項目、為軍事行動提供支持、執行情報分析任務,乃至在專為保密網絡定制微調的版本上處理國家安全工作流程。其中"進攻性網絡作戰"的表述尤為引人注目,這意味著Claude被用于主動的網絡攻擊任務,而不僅僅是防御性工作。
2024年底,通過與Palantir及AWS的三方合作,Claude正式進入戰爭部的保密系統。Palantir的Maven智能系統——美軍目標識別和情報融合的核心平臺——整合了Claude,開始在美國中央司令部和其他作戰指揮機構中運轉。到2025年中期,Anthropic與戰爭部首席數字和人工智能辦公室(CDAO)簽署了第一份直接協議,合同上限2億美元,與Google、OpenAI和xAI所獲合同金額相同。
至此,Claude已成為美國軍方保密網絡中部署最廣泛的前沿AI模型,也是唯一一款在保密系統上運行的前沿AI模型。軍方對其贊譽有加,稱Claude具備"卓越"(exquisite)的能力——這是軍方極少用于評價商業AI工具的措辭。
然而,這正是雙方合作的頂點。
兩條紅線
2025年秋,兩家協議進入了關鍵的擴展談判階段。戰爭部希望將Claude部署到其"GenAI.mil"AI平臺,這是一個覆蓋整個軍事體系的生成式AI基礎設施。談判桌上,國防部提出了一個新要求:放棄Anthropic的使用政策,改為允許戰爭部"以一切合法目的"(all lawful use)使用Claude,無任何額外限制。
訴狀中詳細記錄了Anthropic的回應:公司大體同意了這一框架,唯獨保留了兩條限制。
第一條:禁止將Claude用于無人類監督的致命自主戰爭。
Anthropic在訴狀中解釋:Claude從未被開發或測試過用于自主致命戰爭。至少在目前階段,Claude根本無法在沒有人類監督的情況下可靠、安全地執行此類任務。這不是意識形態立場,而是技術判斷,AI模型會有"幻覺",會產生錯誤輸出,在高概率分布采樣中無法保證與預定規則的一致性。明知存在可靠性問題,卻將這一系統部署在"殺人決策"的核心,是技術上不負責任的行為。
第二條:禁止將Claude用于對美國公民的大規模監控。
Anthropic的理由同樣基于技術現實:像Claude這樣的AI工具能夠以前所未有的速度和規模收集、分析信息,對公民自由構成獨特威脅,且錯誤的潛在放大效應遠超傳統手段。現行的法律框架——那些規范行政部門監控行為的國會立法——是在AI技術尚不存在的時代制定的。AI正以遠超法律框架更新速度的節奏發展,而AI驅動的監控犯錯的可能性,以及錯誤被放大的能力,都遠超傳統監控技術。
在Anthropic看來,這兩條限制并不是在干涉軍方決策,而是對自身產品能力邊界的誠實表達。訴狀明確指出:使用政策"并未賦予Anthropic任何特殊能力來控制、監督或質疑聯邦政府的運作或戰爭部的軍事判斷",也不讓Anthropic處于任何可以干預或阻礙政府決策的位置。
在雙方談判期間,戰爭部從未就Claude的安全性或使用政策提出任何具體問題。相反,軍方一直對Claude的使用反映正面,從未報告任何實質性的運營問題或安全關切。
從談判破裂到公開羞辱
2026年1月初,局勢出現了轉折。戰爭部長彼得·海格塞斯發布了一份內部備忘錄,要求"在整個部門范圍內釋放美國領先AI模型的實驗空間",并明確指令采購辦公室:"在任何戰爭部AI服務合同中,于180天內加入標準的'任何合法用途'條款。"三天后,海格塞斯發表講話,宣稱戰爭部正在"炸毀……那些障礙"。
Anthropic對此依然保持合作姿態,繼續就條款細節與軍方周旋,并反復表達愿意繼續服務國家安全利益的強烈意愿。
Anthropic稱,但戰爭部選擇了另一條路:訴諸威脅,而非談判。
2026年2月中旬,戰爭部內部消息源向媒體透露,五角大樓"接近"切斷與Anthropic的商業關系,并可能將其列為"供應鏈風險"——這一標簽此前從未被公開用于美國本土公司。這名消息源的措辭異常露骨:"這將是一場極其痛苦的脫鉤,他們為逼我們走到這一步,我們一定要讓他們付出代價。"
與此同時,公開的人身攻擊開始涌現。戰爭部官員將Anthropic的CEO達里奧·阿莫迪稱為"意識形態驅動的人"、"騙子",說他有"上帝情結",說他"甘愿將國家安全置于風險之中"。戰爭部首席技術官則公開批評Anthropic的使用政策"不民主"。
2月23日,一名戰爭部高級官員向媒體描述了即將發生的會面:"這不是一次友好的會談。這是一次'拉屎還是滾出馬桶'(shit-or-get-off-the-pot)的會談。"
當面攤牌
2026年2月24日,一場決定性的會面在華盛頓發生。海格塞斯與阿莫迪面對面坐下。據訴狀記錄,五角大樓官員事后向媒體確認,這次會面"并非為了推動解決方案,而是為了恐嚇Anthropic"。
海格塞斯給出了最后通牒:在四天內服從,否則將面臨以下懲罰:
其一,援引1950年《國防生產法》,強制征用Anthropic的技術,迫使其無條件為五角大樓服務。其二,將Anthropic列為"供應鏈風險",將其逐出國防供應鏈體系。
Anthropic認為:這兩個威脅本身就構成了一個邏輯悖論——如果Anthropic真的是不可接受的安全風險,為何又要援引法律強制其留下?如果它對國防如此重要,為何要逐出供應鏈?訴狀提供了這一細節:同一名官員在同一場合,既聲稱Anthropic對國家國防"必不可少",又聲稱其是"不可接受的國家安全風險"。
會面結束后,一名五角大樓高級官員向媒體宣布了截止時間:美國東部時間2月27日下午5點01分,不服從則援引《國防生產法》,且"戰爭部長將同時把Anthropic列為供應鏈風險"。
2月26日,阿莫迪發表公開聲明,措辭克制而堅定:"Anthropic理解,做出軍事決策的是戰爭部,而非私人公司。我們從未就具體軍事行動提出異議,也從未以臨時方式限制我們技術的使用。"他再次強調,兩條限制所涉及的,是"當今技術無法安全可靠地完成的事情",Anthropic"無法以良知服從"戰爭部的要求。他同時承諾,如果戰爭部決定與Anthropic終止合作,公司將配合進行平穩的技術交接,"避免對正在進行的軍事規劃、行動或其他關鍵任務造成任何干擾"。
特朗普宣布全面封殺
2026年2月27日,徹底攤牌的事件接連發生。
甚至在下午5點01分的截止時間到來之前,總統特朗普就率先出手。他在自家社交媒體Truth Social上發文,命令"美國政府的每一個聯邦機構立即停止所有對Anthropic技術的使用"。他斥責Anthropic"失控"、是"激進左翼、覺醒公司",稱其領導層是"左翼瘋子",并威脅:"如果Anthropic不立即整改,我將動用總統的全部權力迫使其服從,并追究重大民事和刑事責任。"
海格塞斯緊隨其后,在X(原推特)上發布"最終決定",宣布將戰爭部對Anthropic的定性為"國家安全供應鏈風險",并宣告"即刻生效,任何與美國軍方有業務往來的承包商、供應商或合作伙伴,不得與Anthropic開展任何商業活動"。海格塞斯同時斥責Anthropic的"硅谷意識形態"、"有缺陷的利他主義"、"企業級道德表演"和"傲慢到極點的態度",并批評公司不夠"愛國"。他還宣布Anthropic將被允許在未來最多六個月內繼續向戰爭部提供服務,"以實現向其他AI提供商的平穩過渡"。
隨即,聯邦機構的多米諾骨牌開始倒下。
美國總務管理局(GSA)當天宣布,將Anthropic從USAi.gov和多項政府采購合同清單中移除,并終止了Anthropic的"OneGov"合同——這意味著聯邦政府三個分支(行政、立法、司法)的政府雇員都將無法使用Anthropic的服務。財政部和聯邦住房金融局公開宣布切斷與Anthropic的一切合作。國務院和衛生與公眾服務部據報道向內部員工發出備忘錄,要求停用Anthropic的服務。各聯邦機構的首席信息官紛紛向下屬發出指令。實際上,Anthropic在訴狀中列出了多達54家聯邦政府部門、機構和個人。
私營部門同樣陷入恐慌。Anthropic立即收到大量來自客戶、云服務商和投資方的問詢,他們對自己是否被允許繼續使用Anthropic的產品感到困惑,并開始詢問合同終止條款。數十家公司聯系Anthropic,尋求澄清和指引。
3月3日,海格塞斯簽署了正式的書面通知,確認戰爭部已"認定使用Anthropic產品構成供應鏈風險",且"危害較小的替代措施無法合理實現"。通知聲明該認定"即刻生效",且將持續有效"直至戰爭部長以書面形式修改或終止"。
“供應鏈風險”,還是意識形態
在整個談判和對抗過程中,戰爭部從未就Anthropic的安全性,或Claude的能力,表達過任何實質性的擔憂。
Anthropic認為,五角大樓對其發出的全部攻擊,集中于一個詞:意識形態。"Anthropic的立場與美國原則根本不相容"——赫格塞斯在宣布封殺命令時如此寫道。一名官員則說:"達里奧的問題在于,對他來說,這是意識形態。我們知道我們在打交道的是什么樣的人。"
但與此同時,這家被扣上"國家安全威脅"帽子的公司,其安全認證從未被撤銷。Anthropic人員的安全許可至今仍然有效。戰爭部在發出封殺令的同時,還要求Anthropic繼續提供六個月的服務,因為軍方清楚地知道,在一場正在進行的戰爭(伊朗戰役"史詩之怒"行動)中,替換Claude將是"龐大而困難"的工程,且至少在短期內,沒有任何其他AI模型能夠取代其在保密系統中的位置。
Anthropic稱,所謂"供應鏈風險"的認定,歷史上從未被公開用于美國本土公司,而是專門針對美國對手國家企業的標簽。將其用于一家持有最高云安全認證、安全許可從未被質疑的美國公司,本身就是這套法律武器被政治化濫用的鐵證。
2026年3月9日,Anthropic在舊金山加州北區聯邦地區法院提起訴訟,同日還在哥倫比亞特區巡回上訴法院提交了另一份訴狀。被告名單長達十余個聯邦機構和官員,包括戰爭部、財政部、國務院、國土安全部、總務管理局,以及以個人官方身份被起訴的海格塞斯、財政部長貝森特、國務卿盧比奧等。
訴狀開篇即稱:"這些被質疑的行政行為,既史無前例,又違法無據。"
五項法律挑戰同時展開:違反授權法律(10 U.S.C. § 3252)、違反憲法第一修正案(言論自由)、總統令超越行政權限(ultra vires)、違反憲法第五修正案正當程序、以及違反《行政程序法》對未授權制裁的禁止性規定。
第一修正案指控是整個訴訟的核心:聯邦政府因一家公司公開表達其對自身AI產品局限性的真實判斷,而動用國家權力對其實施毀滅性的經濟懲罰。正如訴狀所言:"憲法不允許政府揮舞其巨大權力,罔顧一家企業言論受到保護而對其施加懲罰。"
![]()
(Anthropic CEO 阿莫迪 )
五角大樓怎么說
就在Anthropic發出起訴前幾天,戰爭部副部長邁克爾(Emil Michael)接受了美國保守派媒體Pirate Wire的專訪,提供了他的視角,也透露了一些美軍使用AI的場景。順便說一句,他之前在Uber任高級副總裁,主導了對滴滴的投資、與百度的合作,以及最終將中國業務賣給滴滴。
去年8月,負責研究與工程事務的美國戰爭部副部長邁克爾接管了五角大樓的人工智能事務。在熟悉工作的過程中,他先審視了 Anthropic 以及其他 AI 公司的合同條款,當即認為當初簽署合同的拜登政府官員就像那位總統本人一樣,“完全在打瞌睡”。
“我當時想,‘天哪,’”邁克爾說,“整整25頁的條款,全是我不能做的事情。”
這些禁止事項包括:使用 Anthropic 的 AI 來規劃動能打擊。所謂動能打擊(kinetic strikes),是指使用導彈或炸彈等物理力量實施的軍事攻擊,而不是通過網絡、電子戰或信息戰等非物理手段,這通常被認為是戰爭中的核心活動。例如,戰斗人員進行假設性的動能打擊規劃其實非常常見。但如果用 Claude 來做這件事,就會違反 Anthropic 的“服務條款”,他說。
“這種合同應該是 GEICO 保險公司簽的,而不是戰爭部簽的。”他補充說。
邁克爾開始與所有模型供應商重新談判合同,“確保里面沒有這些瘋狂的條款”。
但與 Anthropic 的討論很快變得非常艱難。“整整三個月都是激烈的拉鋸式談判,”邁克爾說。
在他看來,其中很大一部分時間都在解釋戰爭部的基本工作方式,并逐一討論各種具體場景。
邁克爾回憶,他們討論了這樣一個場景:夜晚的軍事基地里,所有人都在睡覺。一群無人機突然襲擊,成百上千架,無人能夠抵御這樣的攻擊,而一個利用人工智能的防御系統可以用激光將它們擊落。
對于這種情況,Anthropic 團隊同意在服務條款中給予例外,他說,“他們會說,‘哦,這個場景挺有意思。’”
于是邁克爾開始嘗試設想所有可能出現的未來戰爭場景,以便在 Anthropic 的服務條款中為這些情況爭取例外。
再舉一個例子。“假設有一輪導彈以高超音速向我們襲來,我們只有90秒反應時間,而且有一種安全的方法可以攔截,但人類無法完成這件事,”邁克爾說。“他們就會說,‘好吧,也許這算一個例外,但每次出現這種情況你都得給我打電話申請例外。’我當時想,‘事情不是這么干的。’”
據 Semafor 報道,Anthropic將這種說法稱為“明顯不實”,但邁克爾表示,“房間里的20個人都可以證明這件事確實發生過。”
這些交流讓人筋疲力盡。無論是假設什么情景,無論提出什么論點,Anthropic 都堅持認為,任何超出其“服務條款”的情況都應該由 Anthropic 自己判斷,或者“也許”可以給出例外。
“我們不斷討論各種場景,我最后說,‘各位,我不可能為一個擁有300萬人的部門預先列出所有例外,也無法預測未來,’”邁克爾說。
邁克爾希望獲得對這項技術所有合法用途的許可。
邁克爾稱,戰爭部“是世界上最大的官僚機構”,與聯邦航空管理局等其他監管機構之間,本來就已經存在各種限制、政策、安全認證測試等等。
但 Anthropic 依然不肯讓步。在上周接受 CBS News 采訪時,Anthropic CEO阿莫迪(Dario Amodei) 表示,法律尚未“跟上”人工智能的一些問題:“目前來看,我們是最先在一線看到這項技術的人。”
“結果證明,他們就是無法走到那一步,”邁克爾說。
“你們不也這么干嗎”
在邁克爾看來,Anthropic 隨后開始向媒體泄露合同談判內容。一月份路透社率先報道此事。邁克爾認為其目的在于“吸引 OpenAI 的研究人才”,以及“爭取那些反對特朗普的用戶”。
他認為這些泄密之所以可疑,是因為在 Anthropic 與五角大樓討論的眾多問題中,媒體報道卻只集中在兩個議題上:“自主武器、類似《終結者》中天網那樣的可怕世界,以及大規模監控”。他說,這些問題聽起來格外駭人,同時也讓特朗普政府顯得居心叵測。
Anthropic 擔心其工具可能被用于監視美國公民,或在缺乏足夠人類監督的情況下協助武器目標鎖定。Anthropic 的說法是,其技術目前還不夠可靠,無法用于完全自主的武器系統,同時法律也尚未跟上 AI 在國內監控方面的潛在能力。
但邁克爾認為,這兩個問題都是“轉移視線的煙霧彈”。首先,關于監控。根據阿莫迪的說法,他們擔心的是:政府購買的公開數據“可能被全部轉錄、解釋并交叉分析,從而構建出許多甚至大多數公民的態度和忠誠度畫像”。
邁克爾對此回應說:“呃,這不正是你們在做的事情嗎?你們購買數據庫,大規模抓取互聯網數據,但我卻不能這么做?這聽起來有點荒唐。”
戰爭部確實會使用商業獲取的數據來微調其 AI 系統部署,并構建更好的情報畫像(例如理解人們的一般行為模式,并使用來自美國科技公司的數據進行訓練)。
但他強調,戰爭部并不支持非法的國內監控。“在大規模監控這個問題上,我們不是 FBI,也不是國土安全部,這不是我們的職責范圍。”邁克爾說。
“所以把我們描繪成想做這種事情的機構是荒謬的,”他補充說。“我們不希望審查制度,不希望侵犯隱私,也不希望用臨時編造的荒唐搜查令去突襲老百姓的家。”
不過,邁克爾也明確表示,五角大樓確實希望擁有自主武器能力,而且現在仍然如此。
他提到了軍方提出的“金穹”(Golden Dome)計劃,旨在建立一個導彈防御盾,其中一部分部署在外太空。一些太空資產將從軌道上攔截以五倍音速飛行的導彈——這種導彈通常很難被擊中。
邁克爾說,在僅有的90秒反應時間內,在太空中部署人類來發現、瞄準并擊落導彈是不現實的。如果系統要發揮作用,就必須實現自動化。
“而且你可能會使用 AI 來進行判別:這是誘餌嗎?這是彈頭還是彈體?根據它的軌跡,我應該使用哪種武器?”他說。
據邁克爾稱,Anthropic 在這一點上是可以接受的。但媒體中那種敘事反復出現:五角大樓正在推動這兩種可怕目標。而這更加堅定了邁克爾的看法:這是一次“信息戰操作”。
最終,挫敗感不斷累積。“如果你不希望 AI 做戰爭部該做的事情,那你為什么還要和戰爭部做生意?”他說。
“拔掉軍事行動的電源”
邁克爾表示,雙方談判真正的“觸發點”出現在委內瑞拉領導人尼古拉斯·馬杜羅被抓捕之后。那次突襲行動涉及動能打擊,并由 Palantir 執行,而 Palantir 使用了 Anthropic 的Claude模型。
行動結束后不久,據《華爾街日報》最早報道,一位 Anthropic 的高級高管聯系了 Palantir 的某個人,想具體了解 Claude 在行動中是如何被使用的。
“他們當時是在試圖獲取機密信息,”邁克爾說,“這是絕對不允許的。”
邁克爾稱,據說 Anthropic 暗示,如果他們不認可某次軍事行動的方式,他們實際上可以“拔掉電源”,讓行動無法繼續。那位向五角大樓報告這一交流的 Palantir 高管,對未來完成軍事行動感到擔心。
“他們的意思是,如果他們不喜歡 Claude 在那次突襲中的使用方式,我們可能就違反了服務條款,他們可能隨時撤回軟件,或者設置護欄阻止行動發生。這非常可怕,因為那樣就會讓真實的人命處于危險之中,”邁克爾說。“這不是開玩笑。”
根據 Semafor 的報道,Anthropic表示這種關于其與 Palantir 交流的說法是“虛假的”,其發言人稱,Anthropic 從未向任何行業合作伙伴表達過擔憂,“除了一些嚴格限于技術問題的常規討論”。
“摧毀”Anthropic
邁克爾稱阿莫迪的“政治局”拖慢了整個過程。“這不是我和達利奧兩個人面對面的談判,”他說,“每次我們討論任何事情,他都要把問題帶回去給他的聯合創始人‘政治局’和他們的倫理委員會。”
“然后這個政治局會給出決定,接著又開始新一輪循環。這真的讓人很煩。”
“我是在政府工作的,按理說我才應該是那個效率慢的人。”他補充說。
更讓人惱火的是,上周晚些時候,當談判已經開始破裂時,Anthropic 甚至沒有打電話溝通。
“做交易有一個基本規則。如果你打算退出交易,你應該打電話告訴對方:‘我們恐怕談不攏了。’但在周五最后期限前的周四晚上,他們直接發了一篇博客,說談判結束了,而我們前一晚還在交換各自的紅線,”邁克爾說。
在那個周四晚的博客文章中,阿莫迪寫道,Anthropic “在良心上無法接受”五角大樓提出的要求,即允許其 AI 模型用于“所有合法用途”。他還聲稱政府威脅要動用《國防生產法》,以迫使Anthropic 讓步。
邁克爾表示,在談判過程中發布博客這一行為激怒了特朗普總統和戰爭部長海格塞斯。
第二天,特朗普下令所有聯邦機構停止使用 Anthropic 技術,并在六個月內完成淘汰。五角大樓正式將 Anthropic 列為“供應鏈風險”。邁克爾說,這一限制只適用于企業在為戰爭部服務時使用 Anthropic 技術的情況。
“這并不意味著 AWS 不能在非國防用途上為 Anthropic 提供服務,”他說。
盡管如此,這一認定可能對 Anthropic 的業務造成“嚴重打擊”。許多業內人士猜測,特朗普政府是在因為意識形態分歧而懲罰這家公司,甚至試圖“摧毀”它。
但未來的軍事體系將越來越依賴 AI 模型。從與邁克爾的談話來看,他擔心支撐這些模型的一些意識形態分歧可能會威脅士兵的生命安全。
“當時我真的擔心,他們的模型會被編入他們自己的‘憲法’、他們的靈魂和政策偏好——這就是一種供應鏈風險,”他說。
例如,邁克爾設想了這樣一種情況:Anthropic 可能把自己的政策目標和意識形態嵌入模型之中,以至于交付給戰爭部的某些產品,例如使用 Claude 在物理、空氣動力學和材料科學方面設計的導彈,可能被故意做成有缺陷的產品。
“比如,如果這是一個激光制導導彈,他們可能會讓激光不起作用,因為他們認為導彈會擊中他們不希望被擊中的目標。”
“我不能接受一把槍因為他們不喜歡槍就無法工作,”他說,“我們使用槍,這是我們的工作。”
阿莫迪道歉
邁克爾表示,截至上周三,他仍在嘗試修補關系,把這看作 Anthropic 的“最后一線生機”,“我們當時還在進行這些討論”。
直到科技媒體The Information轉載了一份阿莫迪此前一周發給 Anthropic 員工的內部備忘錄。
備忘錄中提到,政府不喜歡 Anthropic 的部分原因是公司沒有給特朗普捐款,也沒有對他進行“獨裁者式的贊美”(邁克爾稱這種說法“完全不屬實”)。備忘錄還指責剛剛宣布與五角大樓達成合作的 OpenAI,其 AI 安全措施十分薄弱,更像是為了逢場作戲,安撫員工,而不是為了真正防止濫用。
“那就到此為止吧,”邁克爾說。交易終止。
“這讓我覺得——雖然我不能完全確定——他們其實從一開始就不想達成協議。他們想扛起反政府、反軍方的旗幟,而在這個分裂的國家里確實存在這樣的受眾,也許他們認為那是一個更有利潤的市場,”他說。
“當時我就在想,善意在哪里?可靠性在哪里?而對戰爭部來說,和合作伙伴之間最重要的就是可靠性。因為一旦發生事情,就像過去這一周發生的那樣,你必須依賴人、依賴供應商、依賴軟件和硬件——必須能夠正常運作,”他補充道。
隨后,阿莫迪為那篇帖子語氣過于激烈而道歉。在接受The Economist采訪時,他表示,那條內部 Slack 信息是在公司被政府列入黑名單的同一天寫的。那一天對公司來說幾乎是歷史上最具打擊性、最令人“迷失方向”的日子之一。
“回頭看,我現在不會講那些的話,”他說。
邁克爾對 Anthropic 與五角大樓未來的關系并不樂觀。不過,畢竟邁克爾曾是 Uber 的首席商務官。
“我對戰爭部負有責任。如果有辦法確保我們能夠獲得最好的技術,我不會有任何個人情緒。但他們必須重新贏得信任,必須證明自己可靠,證明他們可以成為長期合作伙伴。因為隨著我們越來越多地在工作中使用 AI,就像任何大型組織一樣,我們必須建立長期信任。這是最基本的原則。他們必須證明這一點。如果能夠證明——雖然我不能代表部長或總統發言——但我會保持開放態度,”他說。
“畢竟,我是個做交易的人。”
但是,在Anthropic發起訴訟之后,邁克爾稱,目前沒有重開談判的可能,并宣布五角大樓開始使用Gemini模型。
參考文件:
https://assets1.cbsnewsstatic.com/hub/cms/prod_cms_alt/file/2026/03/09/2c827022-6c4e-4ce4-8f65-bde71f962da1/gov.uscourts.cand.465515.1.0_1.pdf
https://www.piratewires.com/p/inside-pentagon-anthropic-deal-culture-clash
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.