當殺傷鏈縮短,道德猶豫的空間也隨之縮小。
![]()
美以對伊朗的聯合軍事打擊,不僅加劇了本已動蕩的地區沖突,更揭示了基于算法的目標選定和數據驅動的情報工作正在如何重塑戰爭機制。據報道,僅在最初的12小時內,美以軍隊就對伊朗目標執行了近900次打擊,這種作戰節奏在以往的沖突中可能需要數天甚至數周才能實現。
除了打擊的規模和殺傷力——包括使用隱形轟炸機、巡航導彈和自殺式無人機的數百次任務——最令軍事分析家和倫理學家矚目的是人工智能(AI)在規劃、分析乃至潛在執行這些行動中日益增長的作用。批評者警告,這一趨勢可能將決策時間壓縮到人類判斷力被邊緣化的程度,從而開啟一個被形容為"比思維速度還快"的戰爭時代。
用軍事術語來說,"縮短殺傷鏈"指的是將目標識別、情報驗證、法律許可到武器發射的序列,壓縮成一個更為緊湊的作戰閉環。這個縮短的間隔引發了一種擔憂:人類專家可能最終僅僅淪為算法生成建議的批準者。在一個以速度和自動化為導向的環境中,猶豫、異議或道德約束的空間可能同樣在迅速縮小。
AI與殺傷鏈:發生了什么變化?
能夠處理海量數據的AI系統,以人類團隊無法比擬的速度,連接著無人機視頻饋送、衛星圖像和電信攔截等情報源。
據報道,在美以對伊朗的打擊中,這些工具被用于生成目標建議,并將以往需要數天或數周的計劃周期壓縮至數小時甚至數分鐘。紐卡斯爾大學政治地理學高級講師、軍事殺傷鏈專家克雷格·瓊斯指出,AI系統現在正以某種程度超越人類認知處理的速度"提出關于打擊目標的建議"。他認為,其結果是實現了規模化同步執行:領導人目標打擊、導彈壓制和基礎設施攻擊不再是按順序進行,而是并行開展。
倫敦瑪麗女王大學倫理學、技術與社會教授大衛·萊斯利同樣在評論中警告,此類系統將規劃時間線壓縮成一個"非常狹窄的時間段"供人類審查。雖然理論上指揮官仍"在決策回路中",但進行有意義的深思熟慮的窗口已急劇縮小。這種作戰節奏的壓縮,常被稱為"決策壓縮",不僅僅是關乎效率。它改變了軍事權威的結構本身,縮小了法律顧問、分析員和指揮官在武器發射前質疑各種假設的空間。
AI增強作戰的倫理問題
倫理與技術專家警告,隨著AI系統在軍事規劃中承擔更多角色,人類監督的性質正在發生根本性改變。一個擔憂是"認知卸責",即決策者過于輕易地順從算法推薦,實際上削弱了人類對戰略選擇的責任。
當涉及平民傷亡時,這種疏離感尤其令人不安。在最近一次對伊朗南部的打擊中,至少150人喪生,其中許多是女學生,聯合國稱此事件為"嚴重違反人道主義法"。國際人道主義法是在假定人類在相稱性和區分性原則下進行判斷的基礎上構想的。隨著AI系統壓縮時間線并快速生成打擊選項,這些法律和倫理約束很可能被追求速度的絕對必要性所掩蓋。
關于軍事化AI的學術研究持續強調,需要建立框架來防止在致命場景中人類能動性的侵蝕,并確保戰場效率不會凌駕于對平民傷害和遵守法律的考量之上。
圍繞軍事AI的倫理張力并非抽象概念。Anthropic公司的Claude模型此前已被整合到美國國家安全工作流程中,與帕蘭提爾公司合作,協助情報分析和戰爭規劃。
然而,Anthropic公司明確劃定了界限,反對將其系統用于完全自主的武器或國內監控應用。在伊朗打擊行動前幾天,美國政府表示,根據這些限制,Anthropic將從某些國防系統中逐步淘汰。此后不久,OpenAI與五角大樓就其模型用于軍事應用達成了自己的協議。Anthropic的立場預示著這個新戰爭時代的一個核心矛盾:那些能夠以前所未有速度整合情報的相同模型,同樣可能被改用于監控或自主致命系統。
人類權威是否能保持核心地位,可能不僅取決于軍事學說,也取決于科技公司如何選擇界定其參與的限度。令人擔憂的是,在旨在模擬冷戰式核危機的兵棋推演中,AI模型絕大多數情況下都傾向于升級至核選項,在95%的場景中選擇戰術核行動,極少選擇降級。雖然這些模擬并不意味著在真實沖突中AI會不可避免地選擇核升級,但它們揭示了戰略推理模型在壓力下如何可能默認走向極端結果。
伊朗之外的AI作戰應用:加沙、委內瑞拉與全球格局
先進的軍事AI用于目標識別和攻擊規劃已有一段時間。例如,在加沙地帶,以色列國防軍部署了像"福音"和"拉文德"這樣的AI工具,自動篩選海量監控數據,每日生成打擊目標清單,供分析員審查和采取行動。
據軍事消息源和調查顯示,"福音"系統每天能產出數十個目標,速度遠超傳統人工流程;而"拉文德"則維護著由AI算法標記的疑似戰斗人員及相關地點的龐大數據庫。
在中東之外,美國也在其他地區試驗了AI工具。據多份報道,在2026年初一次抓捕委內瑞拉前總統尼古拉斯·馬杜羅的高調行動中,美軍使用了Anthropic的Claude模型來支持情報分析和目標選擇。自2017年美國國防部啟動"梅文計劃"等長期項目以來,機器學習已被應用于分析圖像并支持從伊拉克、敘利亞到烏克蘭等沖突中的目標決策,在烏克蘭,AI輔助無人機幫助在復雜的電子戰環境中識別和打擊目標。
在地緣政治層面,為在軍事領域使用AI建立規范的嘗試進展不一。美國政策制定者提出了一項"關于負責任地在軍事上使用人工智能和自主技術的政治宣言",數十個國家簽署支持關于致命性自主武器和人類監督的負責任實踐。
然而,包括就像美國這樣的軍事大國,有時不愿全面接受具有約束力的限制,反映出戰略優勢與倫理約束之間的優先事項沖突。其他國家也在推進AI賦能武器。在土耳其,"巴伊卡爾·巴伊拉克塔爾·凱曼凱什1型"巡航導彈集成了AI輔助光學制導,用于在惡劣條件下自主識別目標。在印度,像"阿努曼計劃"和"特里內特拉計劃"等國防研究項目正在探索AI在跨網絡整合情報和實現早期威脅評估方面的潛力。
此次伊朗軍事行動的特殊之處,不僅在于打擊的強度,更在于AI輔助目標選定在規模上的常態化。從自動生成的打擊清單到被壓縮的法律審查,算法的介入正以前所未有的方式嵌入現代沖突。
如果朋友們喜歡,敬請關注“知新了了”!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.