2026年2月28日,伊朗南部城市米納布,沙賈雷·塔伊貝赫女子學校的操場上,孩子們正準備開始新的一天。
隨后,導彈落下。
襲擊造成165名伊朗小學生和教職員工死亡,遇難者中大多數是7至12歲的女孩,另有至少95人受傷。更令人震驚的是,導彈襲擊結束后,第二波打擊隨即到來,前來救援和接孩子的家長也在這次"二次打擊"中傷亡。
![]()
聯合國將此次襲擊定性為"對兒童權利的嚴重侵犯"。半島電視臺的獨立調查呼吁展開國際調查。《紐約時報》的分析顯示,這所學校毗鄰伊朗一處海軍基地,導彈很可能在打擊周邊軍事目標時波及學校建筑。
在這場持續發酵的人道主義危機背后,有一個問題至今沒有答案:這次襲擊的目標,是人工智能選出來的嗎?
這個問題之所以并非妄加猜測,是因為背景已經足夠清晰。
《華爾街日報》于事件發生后率先披露,五角大樓在策劃對伊朗的首輪軍事打擊期間,使用了Anthropic公司開發的Claude大型語言模型輔助目標選擇,且這一系統在整個轟炸行動期間很可能持續使用。路透社隨后報道,Anthropic早在2025年中期就與五角大樓簽署了一份2億美元的軍事合同,并推出了專為軍事用途定制的Claude版本。
當Futurism就AI在米納布學校襲擊中的具體角色聯系五角大樓時,被轉介至美國中央司令部,得到的答復只有一句話:"目前我們對此沒有任何消息可以透露。"
這種沉默,本身就構成了一種信息。
問題的核心不僅在于這一次襲擊,而在于整套軍事AI決策機制的透明度問題。牛津大學研究AI治理的專家在事件發生后發表評論指出,五角大樓與Anthropic的爭端暴露了AI整合進軍事行動時系統性的治理漏洞,而這些漏洞在危機發生之前從未被認真填補。
Anthropic曾試圖為這份合作設定紅線,要求五角大樓承諾Claude不得用于完全自主武器系統和國內大規模監控,否則拒絕繼續合作。
這不是人工智能輔助軍事打擊第一次引發嚴重的倫理爭議。
2024年4月,以色列媒體《+972雜志》經過調查披露,以色列軍方在加沙戰爭中使用了名為"薰衣草"的人工智能系統選擇打擊目標,該系統將至少3.7萬名巴勒斯坦人標注為空襲暗殺候選對象。
六名以色列情報官員證實,這套系統在摧毀加沙基礎設施的過程中扮演了核心角色。
一位以色列軍方人員對《衛報》的表述令人不寒而栗:"在這個階段,我每個目標只需花費20秒,每天要完成幾十個。除了起到審批作用之外,我作為一個人沒有任何附加價值。這確實節省了大量時間。"
這句話精確描述了一種新的戰爭邏輯:人類仍然在按鈕,但決策已經外包。問責機制隨之陷入一種精心設計的模糊狀態,沒有任何一個節點需要真正為結果負責。
Responsible Statecraft的報告顯示,美軍在對伊朗發動打擊的最初24小時內,使用Claude輔助識別和處理了超過1000個目標。在這種規模和速度下,每一個目標的審核時間意味著什么,每一次"人類批準"究竟包含多少實質性判斷,已經無從追問。
《時代》雜志的數據顯示,在持續進行的美以聯合轟炸行動中,平民死亡人數已超過1000人。
那165條在米納布消失的生命,留下的問題將不會隨著戰爭結束而消失:當一個算法參與了決定誰該死的過程,而沒有任何人愿意承認這件事,責任究竟歸屬何處?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.