<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      錯(cuò)誤情報(bào)+AI決策,美“戰(zhàn)斧”誤擊伊朗小學(xué)釀成戰(zhàn)爭悲劇

      美透露誤擊伊朗小學(xué)原因:AI決策失誤

      0
      分享至

      過去幾周,除美伊間持續(xù)緊張的軍事沖突之外,一場與之密切相關(guān)且影響深遠(yuǎn)的沖突也正在展開。沖突雙方分別是美國國防部和近年來迅速崛起、以“安全的人工智能”為口號的硅谷公司——Anthropic。

      盡管Anthropic在美方對伊朗動武前一天遭“封殺”,美軍被指在軍事行動中仍然廣泛使用了該公司的AI技術(shù)。

      而就在美伊戰(zhàn)爭首日,伊南部一所小學(xué)被“戰(zhàn)斧”導(dǎo)彈夷為平地。美國方面披露的信息顯示,美軍的錯(cuò)誤情報(bào)疊加AI決策的雙重失誤釀成了這場悲劇。

      那么,AI是否應(yīng)該參與戰(zhàn)爭?AI決策的邊界在哪里?戰(zhàn)爭是否已進(jìn)入“雖然名義上有人類在場,但扣動扳機(jī)的卻是AI”的時(shí)代?

      美軍被指對伊朗軍事行動中

      廣泛借助“梅文智能系統(tǒng)”

      3月21日,英國方面援引一份內(nèi)部備忘錄稱,美國國防部計(jì)劃將數(shù)據(jù)分析公司帕蘭蒂爾的“梅文智能系統(tǒng)”(Maven Smart System)列為美軍的正式備案項(xiàng)目。美國國防部副部長費(fèi)恩伯格表示,此舉將有助于梅文系統(tǒng)在各軍種的整合應(yīng)用。

      美中央司令部:對伊朗打擊數(shù)量為2003年對伊拉克行動的兩倍

      值得注意的是,在本輪美伊沖突中,五角大樓強(qiáng)調(diào)美國開展的是“有限打擊”。但據(jù)美國方面消息,由于廣泛借助了“梅文智能系統(tǒng)”,美軍在戰(zhàn)爭中的打擊速率顯著提升。

      據(jù)美國方面消息,在發(fā)動襲擊的最初24小時(shí)內(nèi),美軍就對伊朗約1000個(gè)目標(biāo)實(shí)施了軍事打擊。


      主持人 斯圖爾特:一天之內(nèi)打擊1000個(gè)目標(biāo),我不清楚他們是怎么計(jì)算的。但這是不是一個(gè)非同尋常的數(shù)字?

      加州大學(xué)伯克利分校 人工智能學(xué)高級研究學(xué)者 莎拉·肖克:是的。美國中央司令部表示,這是2003年針對伊拉克“震懾行動”中打擊數(shù)量的兩倍。

      彭博社評論稱,本輪美伊沖突標(biāo)志著人工智能輔助戰(zhàn)爭進(jìn)入大規(guī)模應(yīng)用的新紀(jì)元。


      “梅文智能系統(tǒng)”由美國私營企業(yè)帕蘭蒂爾科技公司研發(fā),嵌入了硅谷人工智能公司Anthropic為五角大樓專研的Claude大語言模型。


      加州大學(xué)伯克利分校 人工智能學(xué)高級研究學(xué)者 莎拉·肖克:“梅文智能系統(tǒng)”本身設(shè)計(jì)用于整合不同來源的數(shù)據(jù),比如傳感器、衛(wèi)星等。Claude則會將這些分散的數(shù)據(jù)處理得更易于人類分析,從而提升效率。不過,它也在一定程度上分走了人類的自主決策權(quán),因?yàn)槠鋮⑴c到了目標(biāo)選擇和優(yōu)先級排序的過程中。

      根據(jù)美國喬治城大學(xué)的一項(xiàng)研究,借助嵌入了Claude大語言模型的“梅文智能系統(tǒng)”,一個(gè)20人的炮兵團(tuán)隊(duì)可以完成原本需要2000人才能完成的工作。

      美中央司令部:做出最終決定的始終是人類

      不過,美國中央司令部司令、海軍上將布拉德·庫珀強(qiáng)調(diào),美軍在伊朗行動中使用的AI工具不會替代人類做出打擊決定。


      美國中央司令部司令 海軍上將 布拉德·庫珀:我們的作戰(zhàn)人員在利用各種先進(jìn)的人工智能工具。這些系統(tǒng)可以在幾秒鐘內(nèi)處理海量數(shù)據(jù),幫助指揮官從復(fù)雜信息中篩選關(guān)鍵內(nèi)容,比敵方更快地做出更明智的決定。至于打擊什么、不打擊什么以及何時(shí)開火,做出最終決定的始終是人類。但先進(jìn)的人工智能工具可以把原本需要數(shù)小時(shí)甚至數(shù)天的流程,縮短到幾秒鐘內(nèi)完成。

      美國科技媒體COLD FUSION認(rèn)為,梅文智能系統(tǒng)與Claude大語言模型的結(jié)合,讓戰(zhàn)爭的邏輯從確保“火力優(yōu)勢”,轉(zhuǎn)向提升“信息速度”。人工智能正在從根本上縮短戰(zhàn)爭的“殺傷鏈”。


      “殺傷鏈”這一軍事概念指的是從發(fā)現(xiàn)目標(biāo)到完成打擊的全過程:“發(fā)現(xiàn)”敵方有價(jià)值的軍事目標(biāo),“定位”其精確位置,決定使用何種武器以及如何正確跟蹤“目標(biāo)”,然后“瞄準(zhǔn)”實(shí)施“交戰(zhàn)”,最后“評估”打擊效果是否成功。

      在傳統(tǒng)戰(zhàn)爭中,執(zhí)行這條“殺傷鏈”需要指揮官做出多次評估和決策,耗時(shí)長且要依靠大量人力。而隨著人工智能的介入,幾乎所有環(huán)節(jié)都可以由AI代勞。


      《經(jīng)濟(jì)學(xué)家》雜志國防版主編 沙尚克·喬什:AI軍隊(duì)將各種數(shù)據(jù)融合在一起,包括手機(jī)記錄、船舶和飛機(jī)追蹤網(wǎng)站數(shù)據(jù)、消費(fèi)零售信息以及靠近海軍基地或機(jī)場的購買行為,都可能表明某種活動。通過融合這些龐大的數(shù)據(jù)流,AI便可以自動標(biāo)記出異動目標(biāo)。

      指揮官看到這些目標(biāo)后,需要判斷目標(biāo)是否足夠有價(jià)值,用什么手段打擊,這時(shí),AI軟件平臺又將做出預(yù)測和推斷,為指揮官提供建議。

      Anthropic首席執(zhí)行官:技術(shù)并不可靠 對完全自主武器感到擔(dān)憂

      但是,AI提供的建議真的可靠嗎?Anthropic首席執(zhí)行官達(dá)里奧·阿莫代伊直言,技術(shù)并不可靠。


      Anthropic首席執(zhí)行官 達(dá)里奧·阿莫代伊:我們能夠很好地判斷我們的模型在哪些方面是可靠的,在哪些方面還不夠可靠。至于完全自主武器,我其實(shí)對此感到擔(dān)憂,我們(的技術(shù))還需要繼續(xù)提升。這項(xiàng)技術(shù)并沒有準(zhǔn)備好(參與打擊決策)。

      美軍錯(cuò)誤情報(bào)疊加AI決策 釀成伊朗小學(xué)遭襲悲劇


      在美國對伊戰(zhàn)爭首日的1000個(gè)打擊目標(biāo)中,有一所位于伊朗南部米納卜市的小學(xué)。“戰(zhàn)斧”導(dǎo)彈將學(xué)校夷為平地。

      3月12日,美軍歐洲司令部司令格林克維奇承認(rèn),伊朗小學(xué)遭襲是美軍所為。據(jù)美國方面披露,美軍依據(jù)的錯(cuò)誤情報(bào)疊加人工智能(AI)決策,雙重失誤釀成了這場悲劇。


      英國人工智能軍事應(yīng)用學(xué)者 克雷格·瓊斯:美軍中央司令部有義務(wù)核查并反復(fù)確認(rèn),情報(bào)是否是最新的、準(zhǔn)確的以及打擊目標(biāo)是否符合相關(guān)標(biāo)準(zhǔn)。顯然,這一點(diǎn)沒有做到。

      伊朗小學(xué)遭到美軍打擊,這讓“AI參與戰(zhàn)爭決策”成為爭議焦點(diǎn)。

      Anthropic與美政府“決裂”始末

      而據(jù)美國方面爆料,在對伊朗發(fā)動軍事打擊一天前,美國政府已宣布將提供Claude大語言模型的人工智能公司Anthropic?列入黑名單。


      2月27日,美伊沖突爆發(fā)一天前,特朗普在社交媒體表示,美國“絕不會允許一家激進(jìn)左翼的‘覺醒’公司決定軍隊(duì)如何作戰(zhàn)和取勝;我命令美國政府的所有聯(lián)邦機(jī)構(gòu),立即停止使用Anthropic的所有技術(shù)。”


      但據(jù)多家媒體與五角大樓證實(shí),美軍在對伊朗的軍事行動中仍然廣泛使用了Anthropic的AI技術(shù)。


      為國家安全用途定制AI模型 Anthropic提出兩條紅線

      2025年7月14日,美國國防部與Anthropic達(dá)成約2億美元的技術(shù)合同,將其發(fā)布的大語言模型Claude引入“梅文智能系統(tǒng)”,用于軍事數(shù)據(jù)分析與目標(biāo)識別。

      “Claude”由此成為首個(gè)進(jìn)入美國軍事機(jī)密系統(tǒng)的生成式AI模型,這次簽約也被視為AI企業(yè)正式邁入“國家戰(zhàn)爭決策核心”的關(guān)鍵一步。


      Anthropic首席執(zhí)行官 達(dá)里奧·阿莫代伊:我們是第一家為國家安全用途定制AI模型的公司。

      在合同中,Anthropic提出兩條紅線:

      其AI模型不能用于大規(guī)模監(jiān)控美國人;

      其AI模型不能用于完全自主武器,即在無人干預(yù)情況下能獨(dú)立搜索、識別并攻擊目標(biāo)的武器系統(tǒng)。


      換句話說,Anthropic不想其AI大模型成為是否扣動扳機(jī)的決定者。

      然而,就在Anthropic的兩條紅線墨跡未干時(shí),一周后,2025年7月23日,特朗普簽署行政令,提出警惕“覺醒(woke)AI”,要求聯(lián)邦機(jī)構(gòu)采購的人工智能系統(tǒng)必須保持“去意識形態(tài)化”。


      英國《衛(wèi)報(bào)》認(rèn)為,這是特朗普政府試圖打破硅谷數(shù)十年來秉持的“安全、不作惡(Don’t be evil)、以及技術(shù)中立”的AI價(jià)值觀。

      矛盾就此開始。

      矛盾爆發(fā)于美方強(qiáng)行控制委總統(tǒng)馬杜羅之后


      美國福克斯新聞:這是五角大樓首次使用人工智能來識別(鎖定)目標(biāo)。

      2026年1月3日,美軍對委內(nèi)瑞拉發(fā)動代號為“絕對決心”行動的軍事打擊,突襲首都加拉加斯、強(qiáng)行控制了委內(nèi)瑞拉總統(tǒng)馬杜羅及其妻子。

      據(jù)美國方面披露,與Claude整合后的“梅文智能系統(tǒng)”在行動前和行動中均參與了情報(bào)分析、作戰(zhàn)規(guī)劃和打擊目標(biāo)排序等工作,發(fā)揮重要作用。

      事后,Anthropic內(nèi)部對其技術(shù)被用于該軍事打擊表達(dá)了不滿,并很快傳到了美國國防部門的耳朵里。

      據(jù)美國國防部首席技術(shù)官埃米爾·邁克爾表示,Anthropic內(nèi)部人士回憶稱,雙方矛盾真正爆發(fā)是在強(qiáng)行控制馬杜羅的行動后。當(dāng)時(shí)Anthropic的一位高管打電話給合作伙伴帕蘭蒂爾公司,詢問他們是否在那次突襲中使用了自家的AI軟件,而這本身就是機(jī)密信息。


      美國國防部首席技術(shù)官 埃米爾·邁克爾:據(jù)說帕蘭蒂爾公司的一位負(fù)責(zé)人隨后向五角大樓提出了這個(gè)問題,并擔(dān)心這種情況可能預(yù)示著重大風(fēng)險(xiǎn)。如果未來類似行動中系統(tǒng)突然無法使用觸發(fā)某種安全保護(hù)機(jī)制,甚至出現(xiàn)AI模型“不按預(yù)期工作、被惡意改動或故意產(chǎn)生錯(cuò)誤輸出”等情況,美國軍方將面臨嚴(yán)重的作戰(zhàn)風(fēng)險(xiǎn)。這一擔(dān)憂傳達(dá)給國防部長赫格塞思后,讓五角大樓領(lǐng)導(dǎo)層大為震驚。

      埃米爾·邁克爾表示,五角大樓隨后意識到“可能過于依賴單一AI供應(yīng)商”,雙方的信任危機(jī)繼續(xù)加劇。

      Anthropic遭美政府“封殺”后提起訴訟


      2月24日,特朗普向Anthropic發(fā)出“最后通牒”。要求Anthropic在三天內(nèi),也就是2月27日下午5時(shí)前做出決定,要么配合國防部,允許其AI模型執(zhí)行美軍“所有合法用途”,要么被踢出五角大樓的供應(yīng)鏈。

      2月27日,在下午5時(shí)這一最后時(shí)限過去數(shù)分鐘內(nèi),美國國防部長赫格塞思宣布,將在六個(gè)月內(nèi)逐步淘汰“梅文智能系統(tǒng)”中的Anthropic的技術(shù),并以“供應(yīng)鏈風(fēng)險(xiǎn)”為由對Anthropic采取限制措施。

      Anthropic隨即向聯(lián)邦法院提起訴訟,指控聯(lián)邦政府濫用權(quán)力。

      OpenAI與五角大樓火速達(dá)成協(xié)議


      戲劇化的是,就在Anthropic被“封殺”幾個(gè)小時(shí)后,其在硅谷的最大競爭對手——因發(fā)布ChatGPT名聲大噪的OpenAI就與五角大樓火速達(dá)成協(xié)議。據(jù)美國媒體報(bào)道,OpenAI CEO薩姆·奧特曼不僅允許其大模型通過亞馬遜的AWS云業(yè)務(wù)接入國防部的智能系統(tǒng),還一口應(yīng)下了此前Anthropic所拒絕的將AI用于“所有合法用途”的標(biāo)準(zhǔn)。

      事后,就連奧特曼本人都將這筆交易形容為“投機(jī)且倉促”。

      “扣動扳機(jī)”到底是人類決策還是AI決定?

      然而,最關(guān)鍵的問題始終懸而未解。如果信息由智能系統(tǒng)搜集,數(shù)據(jù)由AI分析處理,打擊目標(biāo)和方式由AI列出,甚至連打擊先后都被AI排好了序,那么,AI是否已經(jīng)成為那個(gè)決定扣動扳機(jī)的“智能體”?


      《經(jīng)濟(jì)學(xué)家》雜志國防版主編 沙尚克·喬什:最具爭議的部分永遠(yuǎn)是最終的致命決策。你可以說真正關(guān)鍵的步驟,是你最初把某物識別為目標(biāo)的那一刻。我們是否寧愿讓指揮官只是按下紅色按鈕、批準(zhǔn)計(jì)算機(jī)提供的目標(biāo),全過程只是重復(fù)點(diǎn)擊“確認(rèn)、確認(rèn)、確認(rèn)”,這對我來說不是真正的人類決定。

      以軍使用AI系統(tǒng)篩選潛在目標(biāo) 人工審核僅數(shù)十秒


      在2023年的加沙戰(zhàn)爭中,以色列國防軍使用名為“薰衣草(Lavender)”的AI系統(tǒng),對“疑似武裝人員”的潛在目標(biāo)進(jìn)行篩選。

      而據(jù)六名以色列士兵向以色列媒體透露,該系統(tǒng)標(biāo)記的誤差極高,每天生成大量哈馬斯疑似武裝分子的目標(biāo)列表,人工審核時(shí)間卻只有數(shù)十秒。以色列軍官做的僅僅是按下“執(zhí)行”選項(xiàng),卻仍對外堅(jiān)稱整個(gè)殺傷鏈“依靠人類的決策”完成。


      新美國安全中心執(zhí)行副總裁保羅·謝爾指出,“人工智能會犯錯(cuò)誤。在決定生死的時(shí)刻,我們需要人類來審查生成式人工智能的決定。不幸的是,人類尚未學(xué)會如何約束自己的權(quán)力,卻已經(jīng)創(chuàng)造出可以放大權(quán)力的工具。”

      (央視新聞)

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      齊魯壹點(diǎn) incentive-icons
      齊魯壹點(diǎn)
      找記者,上壹點(diǎn)!
      630004文章數(shù) 82851關(guān)注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

      無障礙瀏覽 進(jìn)入關(guān)懷版