西班牙拉科魯尼亞舉行第三屆軍事領域人工智能峰會,2月4日到5日,最終只有35個國家簽字,85個到場國家中有一多半沒有簽字,兩個大國也沒有簽字。會議的主題為“負責任地使用人工智能”,試圖為軍事AI制定一些基本的國際規則,即人類對AI武器系統負責,指揮控制鏈要明確,防止未來戰場被算法所操控。但是宣言沒有法律效力,簽字才算是把話說成了,低簽署率也更加凸顯出現實中的猶豫。
軍事AI已經在軍隊中進行測試,在戰場上也已經使用了無人系統、自主識別、集群協同等。一旦失控,就是一點微小的傷害,而把“開火權”交給黑匣子,這就牽涉到責任和倫理方面的問題。會場內拒絕簽署的原因主要是因為缺乏信任,不相信對方會把軍事力量交由國際規則來約束,不相信大國會在關鍵時刻依照協議行事。更現實的是囚徒困境,大家都希望對方克制,但是沒有人愿意第一個攤牌。供應鏈、稀土、半導體、數據與算法公平性都屬于底層變量,可以轉化成戰術上的優勢,擔心立規矩會使自己慢半拍。
![]()
美國保持含糊其辭的態度:不明確反對,但是也不簽署,原因是“進一步評估”。其在軍事AI方面投入很大,軍費中用于AI的資金超過四百億美元,海軍、空軍、太空領域廣泛測試自主作戰系統。美國希望保持速度、自由度和不受限制的手,不愿意公開指揮鏈的設計,也不談論黑箱治理、數據偏見責任機制,把軍事AI當作競賽,追求超越而不是公正。
簽與不簽并不是強弱的簡單標志,主要看有沒有用規則來解決問題的誠意和能力。大會制度性落地有限,但是雙方態度很明確:一方亮原則、亮路徑,另一方耍空間、使手腕。準備好把話說成事的人,就更容易引導出共識。組織者也承認成果更像是姿態,但是國際規則常常是從薄紙開始:先立詞語,再畫邊界,再裝進審計和問責,需要時間以及不斷的對話來不斷壓縮不確定。
![]()
軍事AI風險并不遙遠,數據存在偏差,算法也會繼承偏差;黑箱判斷目標,士兵按確認鍵,各個步驟都有出錯的風險。把開火權交給代碼,這是目前的危險。規則不是束縛人的,而是保護人、擔責和設限。以人為本聽起來很溫柔,但是實際上是有硬約束的。最要緊的是使技術遵守規則、讓人掌握最后的剎車。不簽并不等于不治理,簽了也不代表一定能治理好,看態度、看能力、看政策連續性。
下一步關于軍事AI的討論會更加密切。有理論基礎、能給出合作途徑、能提出風險控制方案的人,就會成為邊界框架的主導者。不是看誰喊得大聲,而是看誰行動穩當、落子精準。棋局已經擺開了,不能著急也不能拖沓。這不是遙遠的外交辭令,而是怎樣給日益智能的技術裝上安全帶、誰來兜底并且能夠兜得住的現實問題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.