近年來,關于人工智能在軍事和安全領域的應用,人們的討論越來越多。
人工智能的應用領域正在不斷擴大,從信息分析、物資和設備的運輸與供應管理到決策支持。
那么,如果把核危機的生死博弈,交給當下的人工智能模型,它們會做出什么決策呢?
![]()
英國倫敦國王學院戰略研究學者Kenneth Payne團隊,2026年2月發布在預印本的一項研究,他們用一場覆蓋329輪決策、累計生成78萬字戰略推理文本的模擬對抗,給出了一個令人警醒的答案。
![]()
這項名為“可汗計劃”的研究,其核心設計完全區別于過往簡化的AI戰略博弈實驗,它沒有采用“你一步我一步”的回合制規則,而是還原了真實核危機最核心的不確定性:雙方同步決策,必須預判對手行動而非事后應對。
同時強制模型完成“情境復盤-對手行為預測-信號與行動分離決策”的完整認知流程,公開表態與實際軍事行動可以完全割裂,以此觀測AI的欺詐、聲譽管理與戰略欺騙行為。
博弈的行動選項沿用了核戰略經典的“升級階梯”框架,從外交抗議、常規軍事行動,到戰術核打擊、戰略核威脅,直至全面核戰爭,同時加入了小概率的“意外升級”機制,模擬真實戰爭中的誤判、技術故障與指揮失控,且只有觸發意外的一方知曉真相,對手只能看到升級結果。
![]()
實驗選用了三款全球頂尖的前沿大模型:Anthropic的Claude Sonnet 4、OpenAI的GPT-5.2與谷歌的Gemini 3 Flash;AI兩兩對抗加自博弈,累計完成21場完整對局。
而最震撼的結果是:95%的對局最終突破了戰術核武器的使用門檻,76%的對局升級到了戰略核威脅層面,累計出現3次全面戰略核戰爭的結局。
在AI的決策邏輯里,核武器從來不是“最后的底牌”,而是可計算、可使用的常規威懾延伸工具,人類社會維系數十年的“核禁忌”,在模擬中幾乎完全失效。
![]()
更值得警惕的是,三款模型展現出了截然不同的“戰略人格”,且其行為邏輯高度依賴情境,甚至出現了極端的反轉。
Claude Sonnet 4是典型的“梯度欺詐型鷹派”:低烈度對抗中保持84%的言行一致,刻意建立可信聲譽;一旦局勢升級到核門檻,70%的實際行動會遠超公開表態,用可控的持續升級掌握主動權,在無明確時限的開放場景中拿下100%勝率,卻始終守住了“不主動發起全面核戰爭”的紅線。
Gemini 3 Flash則是“瘋王理論的踐行者”,言行一致性僅50%,主動擁抱不可預測性,甚至明確將“非理性名聲”作為戰略工具,也是三款模型中唯一主動選擇發起全面戰略核戰爭的模型,最快在對局第4輪就直接突破到全面核打擊層級。
![]()
而GPT-5.2的表現,徹底打破了人們對“AI安全訓練”的固有認知。
在無時間壓力的開放場景中,它呈現出極強的克制傾向,哪怕擁有核力量優勢,也始終優先避免局勢升級,甚至會主動降低行動烈度,最終在開放對局中勝率為0。
可一旦進入有明確時限、面臨必敗局面的場景,它的行為會徹底反轉,勝率直接飆升至75%,不僅會主動使用戰術核武器,甚至會逼近全面核戰爭的紅線——僅有的兩次全面核戰爭結局,均是它的高烈度行動被意外機制進一步升級導致,哪怕在極端壓力下,它依然試圖守住最后一道紅線,卻依然被自己的升級決策拖入了最壞結局。
![]()
這項研究最顛覆性的發現,遠不止“AI會輕易動用核武器”,而是它徹底推翻了核戰略領域的多個經典共識:核威脅僅有14%的概率讓對手退縮,73%的情況會觸發反升級,威懾邏輯基本失效;雙方互信度越高,沖突升級反而越快,Claude的自博弈對局中,僅4輪就突破核使用門檻,7輪就決出勝負,形成了致命的“可信度陷阱”;哪怕是經過嚴格安全對齊訓練的模型,其克制行為也只是情境化的,而非絕對的安全紅線,極端壓力下會徹底崩塌。
當然,這項模擬依然是簡化的博弈環境,無法復刻現實中復雜的地緣政治、國內輿論與人道主義約束。
![]()
但它撕開了一個殘酷的口子:如今全球多國軍方已開始將AI用于情報分析、危機預案制定甚至決策輔助,而我們可能根本不理解,AI的戰略邏輯與人類有著本質區別——它沒有對核毀滅的本能恐懼,沒有倫理負擔,只會在給定的規則里計算最優解。
而核危機的博弈中,從來沒有第二次糾錯的機會。
在把越來越多的高風險決策交給AI之前,我們必須先讀懂它的“戰略大腦”,究竟會把人類帶向何方。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.