<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      視頻丨錯誤情報+AI決策 美“戰斧”誤擊伊朗小學釀成戰爭悲劇

      美透露誤擊伊朗小學原因:AI決策失誤

      0
      分享至

      來源:央視新聞客戶端

      過去幾周,除美伊間持續緊張的軍事沖突之外,一場與之密切相關且影響深遠的沖突也正在展開。沖突雙方分別是美國國防部和近年來迅速崛起、以“安全的人工智能”為口號的硅谷公司——Anthropic。

      盡管Anthropic在美方對伊朗動武前一天遭“封殺”,美軍被指在軍事行動中仍然廣泛使用了該公司的AI技術。

      而就在美伊戰爭首日,伊南部一所小學被“戰斧”導彈夷為平地。美國方面披露的信息顯示,美軍的錯誤情報疊加AI決策的雙重失誤釀成了這場悲劇。

      那么,AI是否應該參與戰爭?AI決策的邊界在哪里?戰爭是否已進入“雖然名義上有人類在場,但扣動扳機的卻是AI”的時代?

      11:37

      美軍被指對伊朗軍事行動中

      廣泛借助“梅文智能系統”

      3月21日,英國方面援引一份內部備忘錄稱,美國國防部計劃將數據分析公司帕蘭蒂爾的“梅文智能系統”(Maven Smart System)列為美軍的正式備案項目。美國國防部副部長費恩伯格表示,此舉將有助于梅文系統在各軍種的整合應用。

      美中央司令部:對伊朗打擊數量為2003年對伊拉克行動的兩倍

      值得注意的是,在本輪美伊沖突中,五角大樓強調美國開展的是“有限打擊”。但據美國方面消息,由于廣泛借助了“梅文智能系統”,美軍在戰爭中的打擊速率顯著提升。

      據美國方面消息,在發動襲擊的最初24小時內,美軍就對伊朗約1000個目標實施了軍事打擊。


      主持人 斯圖爾特:一天之內打擊1000個目標,我不清楚他們是怎么計算的。但這是不是一個非同尋常的數字?

      加州大學伯克利分校 人工智能學高級研究學者 莎拉·肖克:是的。美國中央司令部表示,這是2003年針對伊拉克“震懾行動”中打擊數量的兩倍。

      彭博社評論稱,本輪美伊沖突標志著人工智能輔助戰爭進入大規模應用的新紀元。


      “梅文智能系統”由美國私營企業帕蘭蒂爾科技公司研發,嵌入了硅谷人工智能公司Anthropic為五角大樓專研的Claude大語言模型。


      加州大學伯克利分校 人工智能學高級研究學者 莎拉·肖克:“梅文智能系統”本身設計用于整合不同來源的數據,比如傳感器、衛星等。Claude則會將這些分散的數據處理得更易于人類分析,從而提升效率。不過,它也在一定程度上分走了人類的自主決策權,因為其參與到了目標選擇和優先級排序的過程中。

      根據美國喬治城大學的一項研究,借助嵌入了Claude大語言模型的“梅文智能系統”,一個20人的炮兵團隊可以完成原本需要2000人才能完成的工作。

      美中央司令部:做出最終決定的始終是人類

      不過,美國中央司令部司令、海軍上將布拉德·庫珀強調,美軍在伊朗行動中使用的AI工具不會替代人類做出打擊決定。


      美國中央司令部司令 海軍上將 布拉德·庫珀:我們的作戰人員在利用各種先進的人工智能工具。這些系統可以在幾秒鐘內處理海量數據,幫助指揮官從復雜信息中篩選關鍵內容,比敵方更快地做出更明智的決定。至于打擊什么、不打擊什么以及何時開火,做出最終決定的始終是人類。但先進的人工智能工具可以把原本需要數小時甚至數天的流程,縮短到幾秒鐘內完成。

      美國科技媒體COLD FUSION認為,梅文智能系統與Claude大語言模型的結合,讓戰爭的邏輯從確?!盎鹆瀯荨保D向提升“信息速度”。人工智能正在從根本上縮短戰爭的“殺傷鏈”。


      “殺傷鏈”這一軍事概念指的是從發現目標到完成打擊的全過程:“發現”敵方有價值的軍事目標,“定位”其精確位置,決定使用何種武器以及如何正確跟蹤“目標”,然后“瞄準”實施“交戰”,最后“評估”打擊效果是否成功。

      在傳統戰爭中,執行這條“殺傷鏈”需要指揮官做出多次評估和決策,耗時長且要依靠大量人力。而隨著人工智能的介入,幾乎所有環節都可以由AI代勞。


      《經濟學家》雜志國防版主編 沙尚克·喬什:AI軍隊將各種數據融合在一起,包括手機記錄、船舶和飛機追蹤網站數據、消費零售信息以及靠近海軍基地或機場的購買行為,都可能表明某種活動。通過融合這些龐大的數據流,AI便可以自動標記出異動目標。

      指揮官看到這些目標后,需要判斷目標是否足夠有價值,用什么手段打擊,這時,AI軟件平臺又將做出預測和推斷,為指揮官提供建議。

      Anthropic首席執行官:技術并不可靠 對完全自主武器感到擔憂

      但是,AI提供的建議真的可靠嗎?Anthropic首席執行官達里奧·阿莫代伊直言,技術并不可靠。


      Anthropic首席執行官 達里奧·阿莫代伊:我們能夠很好地判斷我們的模型在哪些方面是可靠的,在哪些方面還不夠可靠。至于完全自主武器,我其實對此感到擔憂,我們(的技術)還需要繼續提升。這項技術并沒有準備好(參與打擊決策)。

      美軍錯誤情報疊加AI決策 釀成伊朗小學遭襲悲劇


      在美國對伊戰爭首日的1000個打擊目標中,有一所位于伊朗南部米納卜市的小學?!皯鸶睂棇W校夷為平地。

      3月12日,美軍歐洲司令部司令格林克維奇承認,伊朗小學遭襲是美軍所為。據美國方面披露,美軍依據的錯誤情報疊加人工智能(AI)決策,雙重失誤釀成了這場悲劇。


      英國人工智能軍事應用學者 克雷格·瓊斯:美軍中央司令部有義務核查并反復確認,情報是否是最新的、準確的以及打擊目標是否符合相關標準。顯然,這一點沒有做到。

      伊朗小學遭到美軍打擊,這讓“AI參與戰爭決策”成為爭議焦點。

      Anthropic與美政府“決裂”始末

      而據美國方面爆料,在對伊朗發動軍事打擊一天前,美國政府已宣布將提供Claude大語言模型的人工智能公司Anthropic?列入黑名單。


      2月27日,美伊沖突爆發一天前,特朗普在社交媒體表示,美國“絕不會允許一家激進左翼的‘覺醒’公司決定軍隊如何作戰和取勝;我命令美國政府的所有聯邦機構,立即停止使用Anthropic的所有技術?!?/p>


      但據多家媒體與五角大樓證實,美軍在對伊朗的軍事行動中仍然廣泛使用了Anthropic的AI技術。


      為國家安全用途定制AI模型Anthropic提出兩條紅線

      2025年7月14日,美國國防部與Anthropic達成約2億美元的技術合同,將其發布的大語言模型Claude引入“梅文智能系統”,用于軍事數據分析與目標識別。

      “Claude”由此成為首個進入美國軍事機密系統的生成式AI模型,這次簽約也被視為AI企業正式邁入“國家戰爭決策核心”的關鍵一步。


      Anthropic首席執行官 達里奧·阿莫代伊:我們是第一家為國家安全用途定制AI模型的公司。

      在合同中,Anthropic提出兩條紅線:

      其AI模型不能用于大規模監控美國人;其AI模型不能用于完全自主武器,即在無人干預情況下能獨立搜索、識別并攻擊目標的武器系統。


      換句話說,Anthropic不想其AI大模型成為是否扣動扳機的決定者。

      然而,就在Anthropic的兩條紅線墨跡未干時,一周后,2025年7月23日,特朗普簽署行政令,提出警惕“覺醒(woke)AI”,要求聯邦機構采購的人工智能系統必須保持“去意識形態化”。


      英國《衛報》認為,這是特朗普政府試圖打破硅谷數十年來秉持的“安全、不作惡(Don’t be evil)、以及技術中立”的AI價值觀。

      矛盾就此開始。

      矛盾爆發于美方強行控制委總統馬杜羅之后


      美國??怂剐侣劊哼@是五角大樓首次使用人工智能來識別(鎖定)目標。

      2026年1月3日,美軍對委內瑞拉發動代號為“絕對決心”行動的軍事打擊,突襲首都加拉加斯、強行控制了委內瑞拉總統馬杜羅及其妻子。

      據美國方面披露,與Claude整合后的“梅文智能系統”在行動前和行動中均參與了情報分析、作戰規劃和打擊目標排序等工作,發揮重要作用。

      事后,Anthropic內部對其技術被用于該軍事打擊表達了不滿,并很快傳到了美國國防部門的耳朵里。

      據美國國防部首席技術官埃米爾·邁克爾表示,Anthropic內部人士回憶稱,雙方矛盾真正爆發是在強行控制馬杜羅的行動后。當時Anthropic的一位高管打電話給合作伙伴帕蘭蒂爾公司,詢問他們是否在那次突襲中使用了自家的AI軟件,而這本身就是機密信息。


      美國國防部首席技術官 埃米爾·邁克爾:據說帕蘭蒂爾公司的一位負責人隨后向五角大樓提出了這個問題,并擔心這種情況可能預示著重大風險。如果未來類似行動中系統突然無法使用觸發某種安全保護機制,甚至出現AI模型“不按預期工作、被惡意改動或故意產生錯誤輸出”等情況,美國軍方將面臨嚴重的作戰風險。這一擔憂傳達給國防部長赫格塞思后,讓五角大樓領導層大為震驚。

      埃米爾·邁克爾表示,五角大樓隨后意識到“可能過于依賴單一AI供應商”,雙方的信任危機繼續加劇。

      Anthropic遭美政府“封殺”后提起訴訟


      2月24日,特朗普向Anthropic發出“最后通牒”。要求Anthropic在三天內,也就是2月27日下午5時前做出決定,要么配合國防部,允許其AI模型執行美軍“所有合法用途”,要么被踢出五角大樓的供應鏈。

      2月27日,在下午5時這一最后時限過去數分鐘內,美國國防部長赫格塞思宣布,將在六個月內逐步淘汰“梅文智能系統”中的Anthropic的技術,并以“供應鏈風險”為由對Anthropic采取限制措施。

      Anthropic隨即向聯邦法院提起訴訟,指控聯邦政府濫用權力。

      OpenAI與五角大樓火速達成協議


      戲劇化的是,就在Anthropic被“封殺”幾個小時后,其在硅谷的最大競爭對手——因發布ChatGPT名聲大噪的OpenAI就與五角大樓火速達成協議。據美國媒體報道,OpenAI CEO薩姆·奧特曼不僅允許其大模型通過亞馬遜的AWS云業務接入國防部的智能系統,還一口應下了此前Anthropic所拒絕的將AI用于“所有合法用途”的標準。

      事后,就連奧特曼本人都將這筆交易形容為“投機且倉促”。

      “扣動扳機”到底是人類決策還是AI決定?

      然而,最關鍵的問題始終懸而未解。如果信息由智能系統搜集,數據由AI分析處理,打擊目標和方式由AI列出,甚至連打擊先后都被AI排好了序,那么,AI是否已經成為那個決定扣動扳機的“智能體”?


      《經濟學家》雜志國防版主編 沙尚克·喬什:最具爭議的部分永遠是最終的致命決策。你可以說真正關鍵的步驟,是你最初把某物識別為目標的那一刻。我們是否寧愿讓指揮官只是按下紅色按鈕、批準計算機提供的目標,全過程只是重復點擊“確認、確認、確認”,這對我來說不是真正的人類決定。

      以軍使用AI系統篩選潛在目標 人工審核僅數十秒


      在2023年的加沙戰爭中,以色列國防軍使用名為“薰衣草(Lavender)”的AI系統,對“疑似武裝人員”的潛在目標進行篩選。

      而據六名以色列士兵向以色列媒體透露,該系統標記的誤差極高,每天生成大量哈馬斯疑似武裝分子的目標列表,人工審核時間卻只有數十秒。以色列軍官做的僅僅是按下“執行”選項,卻仍對外堅稱整個殺傷鏈“依靠人類的決策”完成。


      新美國安全中心執行副總裁保羅·謝爾指出,“人工智能會犯錯誤。在決定生死的時刻,我們需要人類來審查生成式人工智能的決定。不幸的是,人類尚未學會如何約束自己的權力,卻已經創造出可以放大權力的工具?!?/p>

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      海外網 incentive-icons
      海外網
      人民日報海外版官方網站
      653711文章數 1808660關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版