海灣戰爭是在新興有線電視網絡,尤其是24小時新聞頻道環境下,第一場被實時直播的大型戰爭。現在,美以伊戰爭則正值人工智能(AI)媒體時代的早期,AI生成的輿論戰場正在與導彈穿梭的交戰空間平行展開。
上周末,一架美軍F-15戰機在伊朗上空被擊落,隨后美方發起了一場大規模搜救行動,以尋找從飛機上彈射逃生的兩名機組人員。美國總統特朗普在其社交平臺Truth Social上發帖稱,一名飛行員很快獲救,但另一人在偏遠的山坡上避難近兩天,最終被特種部隊救出。
在特朗普宣布成功營救消息后僅幾小時,社交平臺X上流傳一張美國大兵手捧星條旗的照片,配文稱“這是昨天獲救的英勇上校的照片”。首發圖片獲得了超過500萬次瀏覽,隨后被得州州長格雷格·阿博特、得州總檢察長肯·帕克斯頓、紐約州眾議員邁克·勞勒等多名共和黨人轉發。阿博特寫道:“這太棒了”,勞勒則發帖稱:“上帝保佑美國!”
![]()
得州州長阿博特轉發虛假圖片。
多個在線檢測工具已高度確定飛行員圖像并非真實,且獲救的飛行員尚未公開身份。
三名共和黨官員刪除了轉發的帖子,仍遭到大量批評和嘲諷。“或許當你身為國會議員時,應該設法確保沒轉發不靠譜右翼網紅的AI垃圾。”美國進步派媒體MeidasTouch總編輯羅恩·菲利普科夫斯基寫道,并分享了勞勒的發帖截圖。
諷刺的是,戰爭的真實影像卻在AI的誤導之下被人們懷疑。3月2日,伊朗南部米納布一所學校遭空襲后,一張俯瞰照片顯示,當地為遇難者新挖的墳墓整齊地排列成行,直白地記錄了這場戰爭造成的毀滅性平民傷亡。然而,谷歌旗下AI服務Gemini和X公司的AI助手Grok均認定這張照片并非來自伊朗。此后,多方研究人員將墓穴照片與衛星圖像以及視頻片段進行交叉比對,確認了其真實性。
自戰爭開始以來,虛假聲明、AI生成的視頻和回收再利用的戰爭影像一直在網上流傳,既有國家敘事的一部分,也有個人為了獲取流量牟利的行為,其結果是影響了公眾對戰爭的認知。同時,當AI被用于混淆真相,一些戰爭暴行被誤認為是偽造的,真相被掩埋將導致對現實世界的傷害無力追責。
被塑造的戰爭敘事
3月1日,伊朗伊斯蘭革命衛隊發布7號公告,稱美國“亞伯拉罕·林肯”號航空母艦遭到伊朗四枚彈道導彈襲擊。這在社交平臺上引發了大量AI生成的虛假視頻傳播,大多描繪了艦艇在火焰中燃燒的畫面,并配以各種語言傳播。
![]()
“亞伯拉罕·林肯”號被導彈擊中的虛假圖像。
當天晚些時候,美國軍方表示,“亞伯拉罕·林肯”號航母未遭伊朗襲擊,伊朗發射的導彈“甚至沒有接近”該艦。
除此之外,傳播較為廣泛的AI深偽視頻內容還包括特拉維夫發生大規模爆炸、迪拜哈利法塔燃起大火等,充斥著巨大的火焰、蘑菇云和音爆。其中,3月2日,一個冒用伊朗新任最高領袖穆杰塔巴·哈梅內伊名字的虛構賬號發布的哈利法塔起火視頻,被數百個賬號轉發。
美國社交媒體情報公司Cyabra聲稱,其網絡活動研究顯示,大多數關于戰爭的AI視頻往往是為了虛假地展示伊朗的軍事優勢和先進水平。
據路透社報道,特朗普3月15日聲稱伊朗利用AI作為“虛假信息武器”,歪曲其在戰爭中的勝利和支持。他還在社交平臺上發帖,指責西方媒體與伊朗“密切協調”,散布AI生成的“假新聞”,但他并未提供任何證據。
事實上,美國在數字輿論宣傳方面更是不加掩飾。白宮在X和TikTok上已發布了十幾段“宣傳視頻”,將《使命召喚》的連殺獎勵、《鋼鐵俠》、《壯志凌云》、《勇敢的心》和《海綿寶寶》的影像片段與真實的空襲畫面疊加剪輯在一起,完全沒有區分虛構與實戰。其中一段現已刪除的視頻甚至在每次擊中伊朗目標時都疊加了《使命召喚》的“+100”得分提示。
![]()
白宮賬號發布視頻,將襲擊伊朗目標的視頻疊加電影片段。
這種審美邏輯甚至延伸到了橢圓形辦公室內部。據美國全國廣播公司(NBC)報道,美國軍方官員每天都會為特朗普制作一段兩分鐘的視頻,展示最成功的空襲行動,一位官員將其描述為“爆炸場面”。這引發了盟友的擔憂,他們擔心特朗普可能無法全面了解戰爭情況。
在此背景下,機會主義者也加入進來,包括名為“杰西卡·福斯特”(Jessica Foster)的美軍軍官賬號,發布了其與特朗普合影的帖子,在Instagram上獲得超過百萬粉絲,隨后將粉絲引向付費賬號,賬號發布了一系列AI生成的虛假合成圖像,內容包含特朗普以及其他國家首腦。
美媒調查發現,名為杰西卡·福斯特的美國軍官并不存在,是由匿名創作者控制的AI生成虛擬形象,Meta最終刪除了該賬號。
悉尼大學媒體與傳播系教授凱瑟琳·蘭比指出,美國一直通過使用迷因(memes)、流行文化和“使命召喚”風格的視頻素材來聚焦軍事行動的成功,從而使死者去人性化。這一策略會面臨反噬的風險,戰爭可能被轉變成一種迷因化和游戲化的競賽。
AI內容檢測技術的“武器化”
在戰場上,AI生成內容帶來的問題不再局限于普通社交媒體用戶被誤導,其規模甚至已經超過了專業新聞編輯室的核查能力。當受眾無法區分真實證據與操縱證據時,關于戰爭代價的關鍵問題,被海量的視覺奇觀所掩蓋。
在本已困難重重的局面中,一種新的現象正在出現,核查工具和方法被應用,不是為了確認素材的真實性,而是為了給既定結論提供“科學權威”的外衣。這也意味著AI檢測和取證分析本身的武器化。
在社交平臺上一個被廣泛分享的帖子中,“熱力圖”被用來質疑3月1日德黑蘭東部尼盧法爾廣場襲擊事件的真實圖像,該照片由伊朗官方背景的學生通訊社(SNN)的記者埃爾凡·庫查里(Erfan Kouchari)拍攝,后來被多家國際媒體作為空襲現場的真實新聞照片發表。
在空襲現場圖像在網上流傳后不久,X平臺上一名自稱視覺效果師的用戶發布了所謂的“熱力圖疊加層”以及來自Gemini和ChatGPT的輸出結果,聲稱這些照片“極有可能全是AI生成的圖像”。這些可視化圖表迅速傳播,并被當作圖像造假的證據。
![]()
X用戶發帖,用熱力圖和AI檢測質疑圖片真實性。
隨后有專家出面反向“打假”,指出熱力圖本身就是AI生成結果。原圖拍攝者庫查里在Instagram上通過并排發布爭議圖像的“原圖”和“編輯版”來回應指控,顯示X用戶發的原圖經過了重度后期處理,這會干擾核查系統。庫查里在發文中流露出了無奈:“即使上傳原片和數百個其他證據,對于那些想把這些照片歸于AI生成的群體來說也無濟于事,明知這些但我還是進行了對比。”
《紐約時報》3月9日發布的伊朗當地照片也被指有“數字操縱”跡象,圖片記錄了在宣布穆杰塔巴·哈梅內伊為伊朗新任最高領袖后,德黑蘭民眾聚集的畫面。質疑圖片真實性的社交媒體用戶分享了包括錯誤級別分析(ELA)在內的取證分析截圖,在X上的瀏覽量超過60萬。
《紐約時報》發表了公開回應,指出上述分析“歪曲了標準的圖像壓縮行為”。但在截圖流傳最廣的海外伊朗人社區,關于圖像是AI生成的結論已經根深蒂固。
國際人權組織WITNESS的AI技術專家希林·安倫撰文表示,捏造技術性的取證證據來支持某種說法,其結果是一個危險的反饋循環:真實證據的信任被破壞,而偽造的取證分析進一步侵蝕了對核查本身的信心,檢測工具被用來加深對真實事件甚至傷亡的懷疑與困惑。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.