
整理 | 屠敏
出品 | CSDN(ID:CSDNnews)
Anthropic,這家由前 OpenAI 核心團隊成員創立的人工智能公司,以開發可控、安全的生成式 AI 模型而聞名。近年來,它在大型語言模型領域迅速崛起,吸引了政府的關注。
2025 年 7 月,Anthropic 與五角大樓簽署了一份價值 2 億美元的合作合同,其中還涉及機密工作內容,這是五角大樓推進軍事 AI 應用的重要項目。
也正,在合作過程中,Anthropic 明確提出了兩大核心要求:
AI 模型不得用于全自主武器系統;
不得用于對美國民眾的大規模國內監控。
然而,五角大樓最終并不同意這些要求,雙方產生了分歧。隨后,美國國防部長皮特·赫格塞斯宣布 Anthropic 的技術存在“國家安全供應鏈風險”,并要求軍工承包商暫停與該公司合作。
就在事情發生的數小時后,Anthropic 首席執行官達里奧·阿莫迪接受了哥倫比亞廣播公司新聞(CBS News)的采訪。阿莫迪將這次限制形容為“報復性和懲罰性的”,并表示公司一直在為政府使用其技術劃定“紅線”,因為“我們認為越過這些紅線違背了美國價值觀,而我們希望捍衛這些價值觀。”
至于為什么 Anthropic 會如此堅持,以下是采訪的詳細內容:
![]()
CBS:非常感謝您抽出時間接受我們的采訪。您是 Anthropic 的首席執行官 Dario Amodei,對嗎?
Dario Amodei:是的,沒錯。
CBS:我的第一個問題是,為什么你們拒絕向美國政府無限制地開放 Anthropic 的 AI 技術?
Dario Amodei:在回答這個問題前,我們需要補充一些背景信息。
實際上,在所有 AI 公司中,Anthropic 在與美國政府和軍方合作方面一直是最積極的。我們是第一家將模型部署在機密云端(Classified Cloud)的公司,也是第一家為國家安全目的定制模型的公司。我們的技術已應用于情報界和軍方,涵蓋網絡安全、作戰支援行動等多個領域。
我始終認為,我們必須保護國家免受對手的威脅。因此,我們一直表現得非常積極,擁有龐大的公共部門團隊。但我始終相信,在保衛國家的同時,必須堅持并維護我們的民主價值觀。
我們告訴過國防部,除了兩個涉及核心價值觀的用例,我們支持幾乎所有(約 98% 到 99%)的用例。這兩個紅線是:
第一,國內大規模監視。我們擔心 AI 可能會實現以前無法實現的大規模監視。例如,政府購買私營公司收集的散戶數據,并通過 AI 進行大規模分析。這在目前并不違法,但在 AI 時代之前并不實用。現在技術發展太快,已經超出了法律的約束范圍。
第二,完全自主武器。我們指的是在沒有任何人類干預的情況下自動開火的武器。盡管我們的對手最終可能擁有這種武器,而我們也可能需要它來保衛民主,但目前我們有兩個擔憂:首先,目前的 AI 系統遠不夠可靠,無法制造完全自主的武器,AI 模型存在目前技術手段無法解決的不可預測性。其次是監管問題,如果擁有一支由無人機或機器人組成的龐大軍隊,而在誰是目標、向誰開火的決策中沒有人類士兵參與,這會帶來巨大的隱患。我們需要就如何監管這些行為進行對話,但這種對話尚未開啟。
因此,我們堅信目前不應允許這兩個用例。
CBS:五角大樓告訴我們,他們原則上已經同意了這兩項限制,并希望達成協議。為什么最終沒能達成共識?
Dario Amodei:這個過程經歷了幾個階段。整個過程非常倉促,他們給了我們一個為期三天的最后通牒。在那期間有過幾次反復。
有一次,他們發給我們的協議條款表面上符合我們的要求,但其中包含了一些模糊的措辭,比如“如果五角大樓認為合適”或“執行任何符合法律的操作”。這在實質上并沒有做出任何有意義的讓步。
五角大樓發言人 Sean Parnell 在前一天也重申了他們的立場,即“只允許所有合法用途”。這與他們發給我們的條款是一致的。所以,他們并沒有以任何實質性的方式同意我們的限制條款。
CBS:特朗普今天針對此事發文稱,“Anthropic 的自私正將美國人的生命置于危險之中,讓我們的軍隊陷入險境,并危害國家安全”。您對此有何回應?
Dario Amodei:在昨天的聲明和今天的回應中,我們都明確表示,即使國防部或特朗普政府對我們采取了前所未有的措施——比如通常針對外國對手使用的“供應鏈風險”認定——我們仍愿意盡一切努力支持國防部。我們將繼續提供技術支持,直到他們能夠順利過渡并啟用其他愿意接受這些條款的競爭對手產品。我們提供了服務的連續性,因為我們深知服務中斷的嚴重性。
我曾與一線軍官交流過,他們表示這些技術至關重要。如果我們撤出,將使相關進展推遲 6 到 12 個月甚至更久。這就是為什么我們一直在努力達成協議。但三天通牒和供應鏈認定的威脅,以及整個時間線都是由國防部驅動的,而非我們。我們一直在試圖達成一項既能提供服務又能保障原則的協議。
CBS:那么,這對美國人的安全意味著什么?
Dario Amodei:短期內,這取決于國防部,我們仍在努力與他們溝通。雖然我們收到了各種訊息,但目前還沒有看到任何能解決我們核心關切的方案。我想從宏觀角度說明,我們仍有興趣在符合紅線的前提下與他們合作。
現在的局面是,由于我們被認定為“供應鏈風險”,他們要求我們退出所有系統。雖然我們與國防部還存在分歧,但現任國防部長 Hegseth 已將我們定性為供應鏈風險。我們雙方確實還存在巨大的隔閡。
CBS:那么,在目前這種情況下,達成協議是否還有可能?
Dario Amodei:達成協議需要雙方共同努力。就我們而言,我們愿意為國家安全服務,愿意向包括國防部和情報界在內的所有政府部門提供模型,前提是必須遵守我們的紅線。我們并不是在針對特定的人或行政當局。我們之所以提供技術,是為了支持美國的國家安全,我們會繼續這樣做。
CBS:您為什么認為由 Anthropic 這樣一家私營公司,而不是五角大樓,來決定 AI 在軍事中的使用方式會更好?
Dario Amodei:首先,我認為很重要的一點是,據我們所知,目前前線并沒有人真正觸及這些紅線的限制。這些限制只涉及 1% 的極端用例。目前我們的技術已經廣泛應用于國防部和政府其他部門,沒有遇到任何問題。
關于這兩項狹窄的紅線,我同意從長遠來看我們需要進行民主討論。我認為這是國會的職責。例如,關于國內大規模監視,政府購買關于美國人的個人信息、位置數據和政治傾向并利用 AI 進行畫像分析,如果這被視為合法,說明司法對第四修正案的解釋或國會通過的法律已經落后于技術的發展。
從長遠來看,國會應該跟上技術的步伐。但目前我們是站在技術最前線的人。我本希望國防部能更深入地思考這些問題,與我們進行前瞻性的對話。在缺乏這種對話的情況下,我們必須根據技術現狀、可靠性以及它如何規避法律意圖來看待問題。這些是關乎美國人根本權利的原則,比如不被政府監視的權利,以及由人類軍官而不是機器來決定戰爭行為的權利。
CBS:既然涉及根本原則,美國民眾為什么要信任您——一個私營公司的首席執行官——而不是聯邦政府來做決定?
Dario Amodei:我有兩個理由。第一,我們是一家私營公司,有權選擇向誰出售或不出售產品。如果政府不喜歡我們提供服務的方式,他們可以尋找其他承包商。這本應是處理此類問題的正常方式——即如果雙方原則不一致,政府可以選擇其他模型。
但現在的情況是,他們不僅試圖撤銷我們在國防部之外的合同,還動用了供應鏈認定手段,這實際上是在懲罰性地干預私營企業的行為。
CBS:您說你們為國家安全做了很多,并且堅持這兩項限制。您認為 Anthropic 比五角大樓更了解情況嗎?
Dario Amodei:在自由市場中,不同的主體可以根據不同的原則提供不同的產品。我們的模型不僅是法律條款的集合,它還有自己的“性格”,有它擅長和不擅長的事情。我認為我們最了解自己模型的可靠性界限。
我再次重申,長期由私營公司和五角大樓爭論這些問題是不可持續的。國會需要介入,建立一些既不阻礙我們擊敗對手,又符合國家價值觀的護欄。但國會行動并不迅速,在此期間,我們必須劃定底線。
CBS:波音公司為美軍制造飛機,但波音不會告訴軍方如何使用這些飛機。這有什么不同嗎?
Dario Amodei:不同之處在于技術的成熟度。當一項技術已經非常成熟時,比如飛機,將軍們對其運作方式有深刻的理解。
CBS:但航空航天領域也有很多創新。
Dario Amodei:確實,但創新的速度完全不同。AI 正處于指數級增長趨勢中,模型計算量每四個月翻一番。我們從未見過如此之快的創新速度。如果這種速度持續下去,政府將永遠無法跟上。但這并不意味著我們要背棄政府。
問題雖然不多,但非常關鍵。國內大規模監視并不能幫助美國追趕對手,它只是對政府權力的濫用。至于完全自主武器,雖然我們未來可能需要追趕對手的進度,但現在的技術還沒準備好。我們愿意與國防部在“沙盒”環境中進行原型開發,但他們堅持要從一開始就擁有不受限制的處置權。
我們必須在“擊敗對手的迫切需求”和“正確的戰斗方式”之間取得平衡。如果對手犯下戰爭罪,難道我們也應該效仿嗎?這關乎價值觀的本質。我們必須在贏得勝利的同時保留這些價值觀,而不是陷入徹底的底線競爭。AI 可以極大地加速我們軍隊的能力,但這不能成為拋棄原則的理由。
CBS:如果你們的對手已經追趕上來,甚至已經超越了我們,如果我們的軍隊在保衛民主和共和方面至關重要,為什么還要堅持現在的立場?
Dario Amodei:這是一個抽象的論點,讓我們回到那兩個具體的用例。國內大規模監視對追趕對手毫無幫助。至于完全自主武器,我確實擔心我們需要保持競爭力,但目前技術尚不可靠。我們并沒有絕對禁止研究,只是認為需要就監管和“誰來按下按鈕”進行對話。我們愿意提供 99% 的支持,為什么非要糾結于那 1% 違反價值觀的用例呢?
CBS:如果發生意外,會是什么樣的情況?
Dario Amodei:會有兩類風險。第一是可靠性問題,比如 AI 識別錯誤,導致誤傷友軍或平民。如果模型不可靠,我們不想出售可能導致無辜平民死亡的產品。第二是問責制問題,人類士兵有一套完整的問責鏈。如果一個人控制著一千萬架無人機,權力過于集中,問責制就會失效。這并不代表我們不該擁有這種無人機集群,但我們需要討論誰來負責,誰有權說“不”。
CBS:特朗普總統稱 Anthropic 是“左翼覺醒公司”。您的決定是否受到了意識形態的影響?
Dario Amodei:我無法代表其他人的言論。但對于 Anthropic 來說,我們一直努力保持中立。我們只在擁有專業知識的 AI 政策問題上發聲,不參與一般的政治議題。我們尋求合作的共同點。
例如,我曾前往賓夕法尼亞州與拜登總統和 McCormick 參議員討論如何提供足夠的能源來支持美國的 AI 發展。我們還就 AI 輔助醫療等議題簽署了行政承諾。我們一直致力于保持客觀平衡,我們無法控制包括總統在內的其他人對我們的看法,我們能控制的是保持理性、中立并堅持信仰。
CBS:從 1 到 10 打分,您認為未來是否還能與聯邦政府達成協議?
Dario Amodei:我沒有預測未來的水晶球。我們的立場從第一天起就很明確,我們不會在紅線上退縮。如果國防部能和我們達成共識,那就有可能。為了國家安全,我們希望促成這件事,但這需要雙方的努力。
CBS:如果您現在能直接對總統說話,您會說什么?
Dario Amodei:我會說,我們是愛國的美國人。我們所做的一切都是為了這個國家,為了支持國家安全。我們積極將模型部署在軍事領域,正是因為我們相信美國,相信必須戰勝威權對手。我們劃定紅線是因為我們相信,超越這些紅線違背了美國的價值觀。
當我們受到“供應鏈風險認定”和《國防生產法》的威脅時,這是政府對私營經濟前所未有的干預。我們行使了憲法第一修正案賦予的權利,表達了與政府不同的意見。而提出不同意見正是美國精神的體現。
CBS:您認為 Anthropic 作為一個企業能挺過這一關嗎?
Dario Amodei:當 Hegseth 發布關于供應鏈認定的推文時,他的一些說法是不準確的,超出了他們的法律權限。他聲稱任何擁有軍事合同的公司都不能與 Anthropic 合作,這不符合法律規定。根據法律,這種限制僅限于那些公司自身的軍事合同部分,影響范圍要小得多。
我們不僅能生存下去,而且會發展得很好。那條推文的本質是為了制造不確定性、恐懼和懷疑。我們不會讓這種企圖得逞。
CBS:批評者認為五角大樓和白宮的行為是濫用權力。您認同嗎?
Dario Amodei:我只能說這是前所未有的。這種認定從未被用于美國公司,而且相關言論顯然帶有報復性和懲罰性。目前我們只收到了一條推文,還沒有收到任何正式的行政文書。一旦收到正式行動文件,我們會依法在法院提出挑戰。
CBS:如果這就是他們與你們溝通的方式,您認為這反映了他們處理重大國家安全問題的能力如何?
Dario Amodei:我不想把這變成針對特定行政當局或特定個人的攻擊。我們致力于通過各種方式支持美國國家安全,這就是為什么我們努力達成協議。如果無法達成,我們也會確保平穩過渡,不讓前線戰士失去支持。我們要捍衛的是,在不違背國家價值觀的前提下,堅持做正確的事。
來源:https://www.youtube.com/watch?v=MPTNHrq_4LU
未來沒有前后端,只有 AI Agent 工程師。
這場十倍速的變革已至,你的下一步在哪?
4 月 17-18 日,由 CSDN 與奇點智能研究院聯合主辦「2026 奇點智能技術大會」將在上海隆重召開,大會聚焦 Agent 系統、世界模型、AI 原生研發等 12 大前沿專題,為你繪制通往未來的認知地圖。
成為時代的見證者,更要成為時代的先行者。
奇點智能技術大會上海站,我們不見不散!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.