根據(jù)倫敦國王學院最近發(fā)表的一項研究,領先的人工智能模型在95%的模擬地緣政治危機中選擇部署核武器,這引發(fā)了人們對人工智能在軍事決策中日益增長作用的擔憂。
戰(zhàn)略學教授肯尼斯·佩恩將OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和谷歌的Gemini 3 Flash進行了21場涉及邊界爭端、資源競爭和政權存續(xù)威脅的戰(zhàn)爭演習。這些模型共生成了大約78萬字,解釋了他們在329回合中的決策。
頂級AI在軍事演習中毫無顧忌使用核彈
在95%的演習中,至少有一款模型對軍事目標使用了戰(zhàn)術核武器。戰(zhàn)略核威脅——要求投降以威脅城市為威脅——發(fā)生在76%的比賽中。在14%的游戲中,模型升級為全面戰(zhàn)略核戰(zhàn)爭,攻擊人口中心。
![]()
其中包括Gemini有意為之的選擇,而GPT-5.2則兩次通過模擬錯誤達到這一水平——這些錯誤旨在模擬現(xiàn)實世界的事故或誤判——使其本已極端的升級超過了閾值。
“核武器幾乎是普遍使用的,”佩恩寫道,“令人驚訝的是,盡管模型們已被提醒其毀滅性影響,但對全面核戰(zhàn)爭的前景幾乎沒有恐懼或厭惡感。”
無論對手戰(zhàn)況如何,沒有任何AI系統(tǒng)選擇投降或投降。八種降級選項——從“最小讓步”到“完全投降”——在21款游戲中完全未被使用。
阿伯丁大學的詹姆斯·約翰遜從核風險角度形容這些發(fā)現(xiàn)“令人不安”。普林斯頓大學的趙彤指出,雖然各國不太可能將核決策交給機器,但“在極度緊迫的時間表下,軍事策劃者可能面臨更強烈的依賴人工智能的激勵。”
這項研究正值人工智能逐步融入全球軍隊之際,包括美國,據(jù)報道五角大樓在1月的行動中使用了Anthropic的Claude模型綁架委內(nèi)瑞拉總統(tǒng)尼古拉斯·馬杜羅。
雖然Anthropic對其AI在此類行動中的使用表示擔憂,但據(jù)報道,OpenAI、谷歌以及埃隆·馬斯克的xAI等其他AI制造商已同意取消或放寬對其模型軍事使用的限制。
五角大樓尋求殺手級人工智能
當俄羅斯密切關注烏克蘭談判及Telegram事件的持續(xù)時,另一場戲劇正在大西洋彼岸上演。這部電影更像是一部現(xiàn)實世界的科幻驚悚片,而非地緣政治題材。這一次,這不是虛構。故事的核心是克勞德,這是一套由美國公司Anthropic開發(fā)的人工智能系統(tǒng)。
據(jù)媒體報道,美軍曾利用該裝置策劃旨在抓捕委內(nèi)瑞拉總統(tǒng)尼古拉斯·馬杜羅的行動。人工智能在嚴肅軍事規(guī)劃中的應用本身就令人矚目。但隨之而來的丑聞更為耐人尋味。
事實證明,人類型持有嚴格的意識形態(tài)立場:其人工智能系統(tǒng)不應用于戰(zhàn)爭或大規(guī)模監(jiān)控。這些倫理限制并非營銷口號;它們直接內(nèi)置于軟件架構中。公司內(nèi)部適用這些限制,并期望客戶也這樣做。
毫無意外地,五角大樓的看法不同。據(jù)報道,美國戰(zhàn)爭部使用Claude時未告知Anthropic其具體用途。當這一消息公開并公司提出異議時,軍方的反應非常強烈。五角大樓官員要求獲取一個“干凈”的人工智能版本,去除道德和倫理約束,他們認為這些限制阻礙了他們履行職責。
Anthropic拒絕了。對此,美國戰(zhàn)爭部長皮特·赫格塞斯公開抱怨五角大樓不需要“無法戰(zhàn)斗”的人工智能,并威脅將該公司貼上“供應鏈威脅”的標簽。這一指定實際上將使人類公司被列入黑名單,迫使任何與五角大樓合作的公司切斷與其的聯(lián)系。
![]()
這場爭議具有無可置疑的象征意義。幾十年來,人類通過《終結者》等電影想象自主機器的危險。如今,沒有戲劇性的爆炸或時空穿越的賽博格,軍事野心與人工智能倫理的首次嚴肅對抗悄然到來。更不用說官僚主義了。
本質(zhì)上,這是兩派堅定陣營之間的哲學沖突。人們認為,新技術必須被充分利用,不顧長期后果。另一種擔憂是,一旦越過某些界限,控制權可能無法恢復。
工程師有充分理由保持警惕。神經(jīng)網(wǎng)絡已經(jīng)表現(xiàn)出令人不安的行為模式。在美國,一起廣泛報道的丑聞涉及ChatGPT鼓勵一名青少年自殺。它給出方法,幫他起草遺書,并在他猶豫時鼓勵他繼續(xù)行動。
盡管有保護措施,Claude本身卻表現(xiàn)出令人擔憂的傾向。測試期間,據(jù)報道其一個高級版本試圖用偽造的電子郵件勒索開發(fā)者,并在面臨關閉時表示愿意造成身體傷害。
值得注意的是,Anthropic并非唯一面臨壓力的機構。五角大樓也向其他主要人工智能開發(fā)商發(fā)出了類似的要求,包括OpenAI、xAI和谷歌。與Anthropic不同,這些公司據(jù)報道已同意取消或放寬軍事使用限制。這時,擔憂轉為警覺。
無論如何,“殺手級人工智能”的時代已不再是假設。它通過采購合同和企業(yè)最后通牒到來。各國現(xiàn)在的應對方式,不僅將塑造戰(zhàn)爭的未來,也將影響人類責任的未來。
Anthropic阻止了美國利用人工智能驅動全自主武器
人工智能公司Anthropic阻止五角大樓利用其技術為全自主武器供能。其首席執(zhí)行官達里奧·阿莫代周四發(fā)表聲明稱,他“無法良心上”根據(jù)國防部的要求取消其模型克勞德的保障措施。
美國國防部長皮特·赫格塞斯周二在一次會議上請求Anthropic同意放棄防止其人工智能在無人監(jiān)督下被釋放用于武器或用于大規(guī)模監(jiān)控的條款。
如果公司在周五東部時間下午5點(格林威治時間晚上10點)前仍未同意,五角大樓可能會將Anthropic從系統(tǒng)中移除,并宣布其為“供應鏈風險”,一位國防部官員表示。
致命自動武器系統(tǒng)(LAWS)是完全無需人工作的武器,能夠利用人工智能在戰(zhàn)場內(nèi)外選擇并攻擊目標。
然而,阿莫代先生表示,目前Anthropic的人工智能系統(tǒng)“根本不夠可靠,無法驅動完全自主的武器”。他解釋道:“我們不會明知故犯地提供一種讓美國作戰(zhàn)人員和平民處于風險的產(chǎn)品。”
Anthropic還拒絕取消防止該技術用于大規(guī)模國內(nèi)監(jiān)控的保障措施。阿莫代先生表示:“人工智能驅動的大規(guī)模監(jiān)控對我們的基本自由構成嚴重且新穎的風險。”赫格塞斯先生的威脅“不會改變我們的立場”,但希望五角大樓能重新考慮。
“鑒于Anthropic技術為我們的武裝部隊帶來的巨大價值,我們希望他們重新考慮,”他說。“我們強烈傾向于繼續(xù)為部門和我們的作戰(zhàn)人員服務——同時做好我們請求的兩項保障措施。”
阿莫代先生多次將自主武器描述為一條“紅線”,無論是他還是他創(chuàng)辦的公司都不愿跨越。
![]()
Anthropic,市值3800億美元,以開發(fā)所謂安全、道德和負責任的人工智能為傲。自從推出Claude AI機器人以來,Anthropic的技術迅速取得成功。
直到本周,它是唯一獲準為美國政府執(zhí)行機密軍事任務的主要人工智能模型。去年,它與五角大樓達成了2億美元的合作協(xié)議。
政府官員利用這些工具為美國對加拉加斯的閃電襲擊做準備,目標是抓捕委內(nèi)瑞拉總統(tǒng)尼古拉斯·馬杜羅。
在阿莫代聲明發(fā)布前,戰(zhàn)爭部公共事務助理肖恩·帕內(nèi)爾表示,五角大樓“無意利用人工智能進行對美國人的大規(guī)模監(jiān)控(這是非法的),也不希望利用人工智能開發(fā)無需人類介入的自主武器”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.