4月中旬美伊談判談崩,美國宣布封鎖霍爾木茲海峽之后,全網都在聊一個細思極恐的新話題。AI摻和進軍事決策、甚至前線開火授權這件事,正在徹底改寫過去堅守了百年的戰爭規則。咱們印象里的戰爭原來都得走一整套完整流程,現在這套玩法早就悄悄變了。
![]()
過去打個仗,得情報人員盯著線索摸,參謀部門坐下來翻來覆去研判討論,指揮官拍板前還得權衡半天利弊,最后才輪到行動部隊執行命令。這個流程說起來確實慢,可它相當于給戰爭裝了一道“剎車”,真出了錯,還有時間猶豫、復核、及時修正。
可現在,這道剎車正在被AI一點點拆掉。從鎖定目標、比對信息、給威脅排序到生成打擊方案,一整條“殺傷鏈”已經被壓縮到幾分鐘,甚至幾十秒就能走完。表面上看,人還端坐在指揮席上,好多時候其實就是走個過場,給AI系統給出的結論簽字確認而已。
這幾年以色列那套和AI相關的軍事系統被頻繁提起,真正讓人后背發緊的,不只是它算得快,而是它把“目標判斷”這件事直接做成了標準化流水線。過去都是人主動找可疑目標,現在反過來,AI先從海量數據里把“看起來像目標的人”篩出來,直接把名單推到人面前等簽字。
![]()
這里最該警惕的,還不單單是AI會不會出錯,而是它能錯得特別“理所應當”,讓人下意識就信服。系統可能直接給操作者顯示,某個目標疑似敵對人員,匹配度78%,周邊風險可控,可以實施打擊。一串冷冰冰的數字擺出來,大部分人都會下意識把它當成權威的科學判斷。
可問題就出在這,78%的匹配度不等于正義,所謂的風險可控,也不代表無辜者就該白白付出生命代價。之前加沙戰場上就曝出過,當地用的一些自動識別系統,本身就預留了很大的誤差空間。就連附帶的平民傷亡,都可能提前被塞進模型計算,還被包裝成“可接受的代價”。
這么一來,戰爭判斷的邏輯直接變了味。原來開戰前大家討論的核心是“該不該打”,現在卻一點點滑向“值不值得打”。人在高壓力快節奏的戰場環境里,本來就容易下意識依賴機器。
![]()
指揮官要扛著倒計時、應付瞬息萬變的敵情,還要接得住上層的政治壓力。這個時候AI分分鐘給你出好幾套現成方案,連成功率都標得清清楚楚,你說有幾個人能硬扛著壓力,慢慢來提出質疑重新核對。
到最后,所謂的“人類最終決策”,很容易就退化成“人類走流程確認”。人沒有從指揮位上消失,可人的遲疑、懷疑、反復復核的能力,正在被快速壓縮得沒剩多少空間。
![]()
AI從根上說,根本不懂真實的戰場是什么樣。它能識別圖像、比對數據、從數據庫里跑出相關性,可它永遠沒辦法明白現實細節背后的人命分量。
一個人肩上扛的,到底是武器還是干活的工具;一群快速移動的人,到底是武裝人員還是逃命的平民;停在街邊的車,到底是發射平臺還是拉貨的普通皮卡,AI分不清楚這些區別背后的意義。
![]()
也正因為這樣,技術越先進,責任反而越模糊。程序員會說,我只是寫代碼的,不知道你們用來打仗;軍方會說,系統只是給建議,最終決定還是按流程走的;供應商也會推,我們模型準確率已經達標了,具體怎么用不歸我們管。
機器不會上被告席,算法也不會認錯道歉,到最后,最容易消失的就是整條責任鏈條。不少人一開始覺得AI參戰能讓戰爭更精準,能少死無辜的人,現實根本沒有這么美好。
![]()
技術確實拉高了打擊精準度,可它同時也拉低了開火的門檻。過去要發動一次打擊,還得經歷動員、爭論、反復評估政治后果,來來回回掂量好久。現在系統幾秒鐘就能出結果,決策者很容易產生錯覺,都有數據背書了,直接執行就完了。
戰爭也就慢慢變了性質,從原來“慎重考慮后才發動”,一點點轉向“計算完成就能執行”。早些年還有不少硬氣的工程師,堅持不肯把代碼用來做殺人的工作,有人聯名反對,有人直接辭職走人。
可后來國家安全、戰略競爭、技術優勢這些議題擺上臺面,科技企業又紛紛回頭做起了軍工合作。說到底,在大國博弈的語境里,AI早就不只是普通的科技產品,也不是資本市場圈錢的故事,它成了新一輪各國必爭的戰略資源。
話也說回來,真別把AI吹得無所不能。戰爭終究是在現實物理世界打的,不是服務器里的程序跑一跑就結束。地下工事、機動發射車、偽裝目標、真假混雜的信號,都在提醒所有人,數據收集得再多,也不代表現實就會按著數據庫的預設走。
戰場從來不是一張整整齊齊的表格,它本就是混亂、欺騙、誤判和各種偶然性纏在一起的地方。把這么復雜的世界交給概率模型主導,本身就是一件高風險的事。
真正危險的從來不是機器變得比人聰明,而是人自己開始偷懶,把本該自己做的道德判斷外包給機器。算法用來輔助分析沒問題,可它不能代替人的良知;系統能幫著提效率沒問題,可它不能把所有責任都吞掉。
不管戰爭有多高科技,都不該把活生生的生命壓縮成一串冷冰冰的參數。要是文明發展到最后,只剩命中率和誤傷比這些數字說話,那所謂的科技進步,恐怕早就跑偏了。
![]()
機器能算出打擊成功率,卻算不出一個死去孩子的名字;系統能生成完美的打擊方案,卻替代不了人去承受犯錯的后果。要是連“該不該按下開火鍵”這種事都交給算法決定,人類守了幾千年的底線,還能剩下多少分量呢。
參考資料 環球時報 AI重塑戰爭規則:美伊對峙下軍事決策“剎車”正在消失
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.