![]()
2025年6月,美國大西洋理事會發布《人工智能監管對國防的二階影響:國家安全領域為何必須參與》(Second-Order Impacrt Of Civil Artificial Intelligence Regulation On Defense: Why The National Security Community Must Engage)一文,介紹了主要國家及組織的人工智能監管情況及其對國防與國家安全領域的影響,并指出國防與國家安全領域需采取舉措以應對潛在影響。
全球人工智能監管格局復雜且瞬息萬變,即便立場相近的國家,其監管方式也存在顯著差異。然而,一個普遍的共同點是,這些監管大多將國防與國家安全領域排除在外。這種監管豁免或特殊考量,使得該領域可以專注于其內部標準與流程,從而與民用人工智能的監管體系分離開來。但人工智能技術本質上具有雙重用途,這沒有考慮到民用人工智能監管對國防與國家安全領域的影響。
一、主要國家和組織的監管舉措
(一)美國
美國采取“技術中立”的監管態度,鼓勵企業創新,并平衡公共安全與公民權利。各方認同政府應發揮監管作用,但對如何監管未達成共識。美國人工智能監管方式是重點關注人工智能的應用,特別是與自由、數據隱私和消費者保護相關的內容。部分轄區會就特定風險模型補充監管。監管范圍重點為人工智能系統產生的結果,對單個模型或算法的考慮有限。監管類型為聯邦與行業達成自愿性協議,并將人工智能納入硬法。部分州已制定硬性法規,總體上側重于保護現有消費者權益及公民權利。關于監管對象,在美國聯邦層面,自愿性協議針對的是開發者和部署者,服務提供商不在此列。州層面監管參差不齊,部分州已對開發者和部署者提出更具體的要求。關于國防與國家安全,美國聯邦層面由單獨法規管轄,針對不同組成部分設置專門框架。目前尚無州級法規。美國國內治安、反恐等可能會被納入監管。
人工智能是近年來兩黨之間難得達成相對一致的領域。特朗普1.0時期的理念在拜登時期得到了一定程度的延續,盡管拜登的多項行政命令被特朗普2.0推翻,但其政策中技術官僚色彩較濃的部分得以保留。參議院多數黨領袖促成了兩黨參議院人工智能工作組的政策路線,該路線更關注美國的國際競爭優勢而非國內監管,短期內難有重大立法。2024年,美國《國防授權法案》要求評估人工智能的倫理使用并研究軍事應用漏洞。
2024年,美國45個州提出人工智能法案,31個州通過決議或立法,多數聚焦消費者權利與數據隱私。加州議會曾通過嚴格的人工智能法案;猶他州聚焦生成式人工智能的透明度與消費者保護;科羅拉多州針對高風險人工智能系統建立反歧視框架。
(二)歐盟
歐盟是全球第一個圍繞人工智能的開發、部署和使用發布具有法律約束力規則的組織。原計劃作為消費者保護法,因ChatGPT的出現,規制范圍擴展至此類模型。
監管方式為橫向監管,也有針對通用人工智能系統的縱向監管,基于風險評估方式確定特定用途的監管等級。監管范圍主要為高風險和通用人工智能系統,涵蓋數據、算法、應用等,但不涵蓋硬件。監管類型為硬性監管,對違規行為處高額罰款。監管對象主要為人工智能開發者,極少有部署者責任。因權限問題排除國防與國家安全適用,但涵蓋國內警務。
歐盟《人工智能法案》在所有成員國直接生效,采用風險分級(不可接受、高、有限、最低/無風險)進行監管。被列為“不可接受風險”的系統(如工作場所監控等)將被完全禁止;屬高風險的系統(如生物識別等)受最嚴格監管,對于構成“系統性風險”的通用人工智能需遵守類高風險系統的義務。即使允許開發者自定風險類別,高額罰款仍會對違規者形成威懾。另外,盡管排除了軍事用途,但對執法豁免條款(如警務人工智能犯罪畫像)爭議較大,且因軍事與警務技術重疊(如反恐),可能對國防產生連帶影響。《人工智能法案》旨在統一成員國標準以保障單一市場運作,但其帶來的影響可能不局限于歐盟——如《通用數據保護條例》帶來的高合規成本影響了全球企業。
(三)英國
英國政府采用創新友好與靈活的監管政策,旨在平衡經濟增長與公眾安全及基本價值觀之間的矛盾。
監管方式為橫向的、行業性的,未來可能對通用人工智能采取縱向監管。監管范圍不夠明確,主要針對人工智能系統,但也會根據行業考慮供應鏈不同部分。監管類型為通過行業監管機構實施硬性監管。監管對象因行業而異,一般側重于開發者和部署者。針對國防與國家安全領域,有專門的軍事與國家安全框架與更廣泛的政府監管框架并行。
2022年6月,英國首次制定人工智能監管方針,同年12月發布《國家人工智能戰略》,次年8月發布細化監管方針的文件。在2024年大選后,新上臺的工黨政府對監管的態度從強硬轉向緩和,計劃年底出臺的人工智能立法并未實現。
除特定情形外,現有行業監管機構最了解本行業需求。部分機構已將人工智能納入監管,如金融行為監管局的“沙盒監管”。盡管整體監管分行業進行,但仍存在中央統籌機制,如英國人工智能安全研究所與企業簽署自愿測試模型協議。競爭與市場管理局提議依據《數字市場、競爭與消費者法案》優先監管通用人工智能,并賦予其高額罰款權。
隨著民用人工智能監管的發展,英國需通過道德原則進行風險評估,驗證國家安全框架能否應對人工智能風險。此外,英國積極參與國際組織多邊討論,2023年底舉辦首屆全球人工智能安全峰會,有28國簽署《布萊切利宣言》,承諾合作確保人工智能安全、共同應對風險,但因只關注通用人工智能的生存風險而非安全問題遭到批評,且缺乏具體規則。
(四)新加坡
新加坡擁有強大的數字經濟,以親商、創新聞名,監管路徑與英國相似,平衡經濟增長與風險防范。
監管方式為橫向的、行業性的,未來可能對通用人工智能采取縱向監管。監管范圍擬包括數據、算法、應用等內容,實踐中因行業而異。關于監管類型,通過現有行業監管機構進行硬性監管。監管對象包括開發者、部署者和服務提供商/托管平臺,責任按控制程度及開發部署階段劃分。無國防與國家安全的公開監管框架。
新加坡政府采用基于現有框架的行業性、靈活性監管來規制安全問題,但較少關注國家安全。政府與科技行業合作開發監管工具——自愿治理測試框架“AI Verify”,幫助企業測試系統是否符合全球人工智能治理框架。
盡管政策文件對國家安全著墨不多,但新加坡是首個設立獨立軍事部門以應對數字領域威脅的國家——數字與情報局整合指揮、控制、通信、云計算和人工智能等領域。新加坡國防科學技術局(DSTA)也擬將人工智能融入作戰平臺、武器等領域。但新加坡武裝部隊未公布使用軍事人工智能的官方立場。新加坡支持創新的戰略可能持續影響該區域。作為2024年東盟數字部長會議的主席國,推動制定《東盟人工智能治理與倫理指南》,因東盟政治、技術差異大未推行共同監管。該指南與美歐英政策在基于風險的治理方法上相似,但卻更兼顧各國文化。
(五)國際監管舉措
1.經合組織
經合組織于2019年發布了《人工智能原則》,同時為全球人工智能伙伴關系提供秘書處服務。雖然未明確提及國防與國家安全,但會影響對該領域的討論。例如,數據治理工作組的指南會對合法使用數據訓練算法產生影響。經合組織還曾協助七國峰會制定國際人工智能指導原則與自愿行為準則。經合組織監管方式為橫向的、風險導向的。監管范圍為人工智能系統和相關知識,對算法和數據有具體措施。監管類型為無合規或執行機制的軟性監管。監管對象包括參與人工智能系統生命周期中的任何人或任何組織。不涉及國防與國家安全。
2.七國集團
七國集團于2023年建立了廣島人工智能進程,在全球為通用人工智能系統建立護欄。同年,包括國際指導原則和開發者自愿行為守則在內的綜合政策框架出臺,通過提供可信的人工智能工具,成為各國監管框架的基準。這需要包括國防與國家安全人工智能供應商在內的科技行業的參與。
七國集團還在技術標準與國際數據流動等領域發揮作用,但內部分歧可能阻礙這一進程。國際數據流動領域的情況稍顯樂觀,如歐美數據隱私框架通過“數據橋”減少跨境數據流動合規負擔,盡管仍面臨被歐盟法院否決風險。
七國集團監管方式為僅適用于通用人工智能的縱向監管,監管范圍聚焦通用人工智能系統的數據共享與跨境傳輸,監管類型為無合規與執行機制的軟性監管,監管對象僅適用于通用人工智能開發者,不涉及國防與國家安全領域。
3.聯合國
2021年,教科文組織發布全球人工智能倫理標準,建立人工智能倫理與治理實驗室幫助評估倫理準備程度。ChatGPT發布后,聯合國成立人工智能咨詢機構,發布報告并建議內部定期開展政策對話,由國際人工智能專家科學小組提供支持。同時計劃在秘書處設立小型人工智能辦公室。
2023年7月,聯合國安理會秘書長指出人工智能的軍民應用均影響全球安全,提議建立聯合國人工智能治理機構。聯合國監管方式是橫向的、聚焦可持續發展的,監管范圍為廣義的人工智能系統,側重數據治理與避免數據偏見。監管類型為無合規與執行機制的軟性監管。監管對象涉及人工智能系統的設計、開發、部署與使用。關于國防與國家安全,決議排除了軍事用途,但安理會有相關討論。
4.北約
北約不參與民用監管,但在軍事標準領域發揮重要作用。2021年,北約正式發布首份《人工智能戰略》。北約內部設數據與人工智能審查委員會(DARB),制定認證標準,確保新的人工智能項目符合上述戰略中的負責任原則。北約無強制執行權,且成員國達成共識做出決定不易,技術標準比規范性問題更易達成一致。北約標準化辦公室有能力確定適用于國防與國家安全的民用人工智能標準,并確定哪些領域需定制特殊標準。
北約監管方式為橫向的,人工智能原則適用于所有人工智能類型。其監管范圍包含廣義的人工智能系統,監管類型為無執行機制的軟性監管。監管對象為在軍隊中開發和部署人工智能的成員國,相關規定僅涉及國防與國家安全。
二、人工智能監管分析
(一)監管共性
監管方式傾向于行業或用途導向,這是平衡創新與用戶保護的務實之舉,但對通用人工智能,越來越多觀點認為需采用縱向的、技術導向的監管。關于監管范圍,對人工智能需監管的元素缺乏共識,在框架僅提及人工智能系統時,可通過相關文件推斷范圍(算法、數據等),這與現有行業監管的策略一致——根據行業不同重點關注對象也不同。關于監管類型,當前歐盟制定了專門人工智能硬性法規,但多數還是依賴行業監管、自愿性指南等,目前立法趨勢加強。關于監管對象,基本都將部分責任歸于開發者,很少包括部署者和服務提供商在內。有觀點認為責任分配應隨人工智能生命周期變化,但實踐較少且需長期探索。
(二)對國防與國家安全的影響
一是監管塑造市場影響工具可得性。直接干預如修改反壟斷法迫使供應商拆分等,或間接干預如影響市場可用工具種類等,可能影響國防領域獲取人工智能工具。二是對民用法規的司法解讀影響行動許可。可能直接限制特定用途如反恐的人工智能使用,或通過對法律責任的擔憂來間接影響。三是增加開發和部署的成本與風險。復雜合規制度、碎片化技術標準可能增加成本;軍民雙重用途模型的許可或報告可能會帶來相關的安全風險。
通過評估民用監管框架,可以總結出國防與國家安全的具體領域需關注的舉措,大體上可以分為三類:一是短期內應支持的領域或措施;二是中期內應支持的領域,處于走向成熟階段需要更多投入的領域,中期內可能會對社會產生重大影響;三是未來應警惕的舉措,仍處于走向成熟階段但未來的影響不確定,可能需要社會意見。
三、結論
盡管多數民用人工智能監管排除國防與國家安全領域的應用,但人工智能系統固有的雙重用途性質意味著國防與國家安全領域不能置身事外。國防與國家安全中的人工智能監管問題必須納入到更具有普遍性的方案中來。負責國家安全人工智能事務的政府部門及人員、擁有軍民兩用人工智能產品的行業組織及私營企業,都應充分理解民用人工智能監管對自身利益的影響,并參與相關討論。
免責聲明:本文轉自啟元洞見。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨啟元洞見
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.