![]()
美國領導層原本計劃,把擊潰伊朗的行動,不只是做成對又一個 “壞政權” 的殺雞儆猴式教訓,而是打一場下一代試驗戰爭。在這場戰爭中,打擊不僅在對手夠不著的距離外發起(這早已是美軍的標準做法),而且全程由人工智能算法規劃和執行。
伊朗的抵抗比五角大樓預想的要頑強得多。伊朗不僅繼續襲擊美軍及其地區盟友的基地,還摧毀了大部分負責大氣層外反導攔截的THAAD反導系統雷達。西方分析人士稱,雙方已陷入消耗戰,而攜帶集束彈頭、內含數十個子彈藥的彈道導彈也開始落在以色列境內。
![]()
伊朗 “霍拉姆沙赫爾 - 4” 彈道導彈攜帶集束彈頭襲擊特拉維夫本?古里安國際機場。
![]()
在這一背景下,監測資源顯示,美國正向中東調動“末日飛機” E-6B “水星”。Flightradar 網站記錄到了這架 “水星” 的飛行軌跡,埃及開源情報資源 EGYOSINT 注意到了相關數據。
E-6B “水星” 正沿著此前數百架戰斗機、數十架加油機和預警機飛過的同一條航線飛行。
![]()
任何沒逃過物理課的人都記得,水下無法進行無線電通信,因為水會吸收無線電波,對這類電磁輻射而言是不透明介質。
這是事實,但并非全部真相。波長極長(10 到 100 公里)的電磁波,能夠深入海水多達 40 米。這一效應讓 ** 甚低頻(VLF)** 無線電通信技術成為可能。而 “水星” 正是為此而生。
這架飛機配備了功率極強的發射機和兩條拖曳式線天線。主天線長度接近8 公里,輔助天線略超1200 米。飛行時,天線會展開并由飛機拖曳。
相應地,為了接收信號,潛艇也會放出拖曳式電纜天線,并上浮到20–30 米深度,那里可以接收到 “水星” 發出的信號。為穿透海水,飛機必須發出高達 200 千瓦的極強信號,因此需要間歇飛行,讓電子設備冷卻。
VLF 通信超強穿透能力的代價,是極低的數據傳輸速率 —— 僅以 4 個通道、50 字節數據包的方式傳送。因此只能向潛艇發送最精簡的指令,且過程耗時很長,期間飛機必須以最低速度盤旋。
但 VLF 通信的優勢同樣巨大:潛艇可以在不浮出水面、不釋放無線電浮標、完全不暴露位置的情況下,接收導彈發射命令。
2025 年底,美軍接收了 3 架改進型 “水星”。
而這里就到了最關鍵的問題:
如果 “水星” 真的飛往中東,五角大樓要用它做什么?
顯而易見的答案就在表面:
用于對事先未輸入導彈飛行任務的目標,使用核武器。
不過,事情也可能不像從 “末日飛機” 功能出發所推測的那樣戲劇化。
此前有消息稱,襲擊伊朗始于 **“戰斧” 巡航導彈的大規模打擊。發射不僅來自水面艦艇,還來自兩艘改裝為巡航導彈載艇的俄亥俄級潛艇 **。美國共有 4 艘該型潛艇,沒有理由認為剩下兩艘不在打擊范圍內。
但首輪打擊是針對預先偵察好的目標。經過五天大規模戰爭,局勢已發生改變,并且每幾小時就劇烈變動。因此,如果美軍指揮部想再次使用潛艇發射 “戰斧”,就需要一種靈活可靠的與潛艇通信工具。
而這正是 “水星” 的用途。
另一方面,在美國戰爭部長皮特?赫格塞思聲稱美軍“不再受政治正確的戰爭規則束縛”的背景下,任何事態發展都不能排除。
近幾天另一個值得關注的現象,是美軍和以色列空軍對大量目標實施的誤擊。
研究人員發現,在美國中央司令部公布的大量作戰畫面中,被摧毀的并非彈道導彈發射裝置或其模型,而是美軍飛行員和操作員看到的所有篷布卡車。
有理由懷疑,廣泛用于行動規劃的 AI 算法,會把特定外形和尺寸的大型卡車一律標記為目標。人們越來越感覺到,“戰爭自動化” 導致操作員僅憑推薦就攻擊目標,沒有時間目視確認車廂里裝的是不是導彈。
——《軍事編年史》頻道指出。
如果說不分青紅皂白打擊民用車輛還能被算成美軍一貫的 “炸完了事、概不負責” 作風,那么攻擊畫在水泥地上的飛機、直升機輪廓這種明顯誤擊,就沒法用這套說辭解釋了。相當一部分誘餌做得極其粗糙,攻擊它們毫無意義,人類根本不可能犯這種錯誤。
也就是說,犯錯的不是人。
近期美軍犯下的典型非人級錯誤之一。
![]()
此前有消息稱,美軍在軍事行動初期大量使用神經網絡,包括Palantir Maven 智能系統和 Anthropic 公司的大語言模型Claude。前者負責分析戰場數據并給出目標指示,后者用于與軍人溝通、下達任務和提供咨詢。
起初美軍對結果非常滿意,但從目前高精度彈藥被低效消耗的情況來看,人工智能在動態、大量相似目標環境中的表現明顯不足。
以色列空軍攻擊畫在地上的米 - 17 直升機。能看出是畫的,因為擊中發動機后旋翼葉片一片都沒動。
![]()
在這些精準卻如同機器發瘋的打擊背景下,一個問題浮現:
伊朗米納布一所女子學校遭導彈襲擊、170 名學生遇難,是否正是 Palantir 神經網絡 “數字幻覺” 的結果?
這一問題尚未被正式提出,但從美軍在戰場上的表現來看,這一假設并非毫無根據。
更何況,就在襲擊伊朗前幾天,戰爭部長赫格塞思向 Anthropic 公司發出最后通牒,要求取消 Claude 在軍方使用時的所有倫理限制。
核心問題不在于 AI 會犯錯,而在于美國領導層被新獲得的力量沖昏頭腦,執意使用神經網絡,不計任何代價。
肯尼斯?佩恩教授發表在《新科學家》雜志上的一項最新研究顯示:
人工智能幾乎必然會得出 “必須使用核武器” 的結論。
在調用 GPT-5.2、Claude Sonnet 4、Gemini 3 Flash 進行的、涵蓋 21 個資源沖突場景的一系列模擬中,95% 的場景以使用核武器告終。
AI 為解釋自己的決定寫下了 78 萬個單詞,一次都沒有選擇投降。
對其行動的分析顯示,在86% 的場景中,神經網絡在不同階段出現錯誤,并無意導致局勢升級。
在這一背景下,美國在與伊朗的對抗中失利,已不再是抽象的公平問題,而逐漸成為人類生存的前提。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.