![]()
從聯(lián)合國設(shè)立“人工智能獨立國際科學(xué)小組”與“人工智能治理全球?qū)υ挕睓C制,到各國近期密集出臺法規(guī)、針對AI智能體發(fā)布安全風(fēng)險提示等,國際社會正以多種路徑探索AI安全治理之道。國際社會AI治理呈現(xiàn)怎樣的階段性特征?進入2026年,AI治理面臨哪些新挑戰(zhàn),當(dāng)前有哪些治理新趨勢?圍繞這些話題,《人民日報海外版》邀請專家進行解讀。
![]()
圖為二〇二五年十一月六日,觀眾在二〇二五年世界互聯(lián)網(wǎng)大會“互聯(lián)網(wǎng)之光”博覽會現(xiàn)場參觀。新華社記者 黃宗治攝
AI治理頻出新
隨著人工智能技術(shù)快速迭代,近期國際社會圍繞“管什么”“怎么管”正邁入新一輪探索期。從多邊機制到各國出臺綜合性法案與場景化專門立法,一系列新動向引發(fā)關(guān)注。
不久前,聯(lián)合國大會任命“人工智能獨立國際科學(xué)小組”40名成員,包括機器學(xué)習(xí)、數(shù)據(jù)治理、公共衛(wèi)生以及人權(quán)等領(lǐng)域?qū)<摇B?lián)合國秘書長古特雷斯發(fā)表聲明表示,2025年8月,聯(lián)合國大會就全球人工智能治理通過決議,正式設(shè)立“人工智能獨立國際科學(xué)小組”和“人工智能治理全球?qū)υ挕睓C制。科學(xué)小組將負責(zé)評估人工智能的風(fēng)險、機遇與影響。
日前,歐盟理事會就一項簡化部分人工智能監(jiān)管規(guī)則的提案達成一致,主要涉及精簡歐盟人工智能監(jiān)管框架、減輕企業(yè)合規(guī)負擔(dān)、禁止利用人工智能生成色情內(nèi)容等。歐盟理事會表示,該提案是歐盟委員會“綜合簡化一攬子計劃”立法方案中的一部分,是對歐盟《人工智能法案》部分內(nèi)容作出的調(diào)整。
與此同時,美國多個州也出臺針對專門場景的立法。據(jù)美媒報道,紐約州議會擬出臺法案,禁止 AI 聊天機器人提供法律或醫(yī)療建議,允許用戶對違規(guī)的聊天機器人運營方提起訴訟。另據(jù)美國《新聞周刊》網(wǎng)站報道,美國多個州今年還將發(fā)布立法,要求AI陪伴系統(tǒng)履行安全信息披露義務(wù)并建立防護機制。
近期,多國也分別發(fā)布AI相關(guān)立法與治理措施。3月1日,越南《人工智能法》正式生效。外媒報道稱,該法為東南亞首個以專門立法方式確立的較為完整的人工智能監(jiān)管框架。此外,1月22日,針對AI智能體部署后的潛在風(fēng)險,新加坡在瑞士達沃斯世界經(jīng)濟論壇期間發(fā)布《智能體人工智能治理示范框架》。同一日,韓國也正式宣布實施《關(guān)于人工智能發(fā)展和構(gòu)建信賴基礎(chǔ)的基本法》,要求企業(yè)與開發(fā)者對“高風(fēng)險”領(lǐng)域應(yīng)用AI模型時采取嚴格措施。
中國現(xiàn)代國際關(guān)系研究院科技與網(wǎng)絡(luò)安全所所長、研究員李艷接受本報記者采訪時表示,當(dāng)前國際AI治理仍處于探索初期,這符合AI技術(shù)與應(yīng)用的客觀節(jié)奏。從技術(shù)演進看,AI仍在快速迭代,技術(shù)路線和應(yīng)用場景遠未達到完全穩(wěn)定與明晰的成熟階段。這意味著,初期的治理面臨“科林格里奇困境”與“步調(diào)難題”,即規(guī)制的時機與力度一旦把握失當(dāng),過早、過嚴可能扼殺技術(shù)創(chuàng)新、制約產(chǎn)業(yè)發(fā)展;反之則難以有效管控風(fēng)險,或極大推升治理成本與難度。
“在此階段,各國AI治理呈現(xiàn)鮮明的分散化與異質(zhì)化特征。從治理路徑看,尚無統(tǒng)一模板,各國均在探索符合自身國情與發(fā)展定位的治理模式,初步形成了‘監(jiān)管偏好型’‘發(fā)展優(yōu)先型’‘發(fā)展與安全平衡型’等差異化治理路徑。”李艷說。
復(fù)旦大學(xué)發(fā)展研究院副教授、全球人工智能創(chuàng)新治理研究中心研究員江天驕對本報記者表示,當(dāng)前,各國在AI治理路徑上表現(xiàn)出不同政策取向。盡管路徑多元,但如何在不挫傷創(chuàng)新活力的同時筑牢安全底線,平衡好發(fā)展與安全的關(guān)系,正成為各方推動AI治理的共同追求。
“立法追不上代碼”引擔(dān)憂
進入2026年,AI治理面臨的挑戰(zhàn)愈發(fā)復(fù)雜多元。從“AI投毒”到各類應(yīng)用場景風(fēng)險,既有治理框架面臨不少新挑戰(zhàn)。年初以來,AI智能體OpenClaw(俗稱“龍蝦”)的快速發(fā)展,也讓“立法追不上代碼”的擔(dān)憂再度升溫。
日前,哈佛大學(xué)、麻省理工學(xué)院等多所高校聯(lián)合多家機構(gòu)發(fā)布《混沌智能體》研究報告。研究團隊在模擬真實企業(yè)生產(chǎn)環(huán)境中部署智能體,結(jié)果短短兩周內(nèi)便觸發(fā)并記錄下11起嚴重安全漏洞案例。報告認為,超六成企業(yè)面對失控的智能體缺乏有效終止能力,AI安全治理體系建設(shè)迫在眉睫。
美國紐約大學(xué)教授瑪哈·侯賽因·阿齊茲也撰文警告稱,智能體可能遭不法分子大規(guī)模利用,網(wǎng)絡(luò)安全風(fēng)險進入全新階段。
江天驕表示,智能體引發(fā)更多關(guān)于數(shù)據(jù)安全、隱私保護、網(wǎng)絡(luò)攻擊、惡意濫用等連鎖風(fēng)險的擔(dān)憂。這些風(fēng)險場景已超出傳統(tǒng)治理框架的覆蓋范圍。當(dāng)用戶為了效率而向智能體讓渡權(quán)限,一旦出現(xiàn)安全風(fēng)險,責(zé)任應(yīng)如何認定?當(dāng)不法分子濫用智能體實施網(wǎng)絡(luò)攻擊、精準詐騙并催生黑灰產(chǎn)業(yè)鏈時,亟須一整套從數(shù)據(jù)到智能體、從責(zé)任界定到落實執(zhí)法的綜合治理框架。
香港中文大學(xué)信息工程系副教授周亞金對本報記者表示,早期AI立法主要圍繞模型本身展開,重點關(guān)注模型如何處理數(shù)據(jù)、應(yīng)用于何種場景。彼時,責(zé)任主體相對單一,主要指向模型提供廠商。然而,隨著技術(shù)演進、智能體出現(xiàn),如今的AI已不再局限于單一模型,而是逐漸發(fā)展為復(fù)雜的生態(tài)系統(tǒng),涵蓋模型提供者、工具開發(fā)商、應(yīng)用開發(fā)者、最終部署者(如云服務(wù)提供商等)等多個角色,涉及眾多企業(yè)和主體。
“在此背景下,責(zé)任鏈條正變得模糊不清。”周亞金表示,復(fù)雜系統(tǒng)下,不同角色應(yīng)當(dāng)承擔(dān)何種責(zé)任,成為早期立法與相關(guān)治理措施未能預(yù)見的問題。盡管立法過程中可以嘗試對模型提供者、應(yīng)用開發(fā)者、部署者等角色進行抽象界定,但AI生態(tài)發(fā)展速度過快,今日抽象出的角色分類,不久后可能就會被新業(yè)態(tài)突破。立法始終滯后于應(yīng)用生態(tài)演進,這是無法回避的現(xiàn)實,也是當(dāng)前AI治理面臨的突出挑戰(zhàn)。
李艷表示,2026年,AI治理的核心問題已從技術(shù)層面轉(zhuǎn)向更加綜合的規(guī)則制定與秩序構(gòu)建,呈現(xiàn)三大突出挑戰(zhàn):一是發(fā)展與安全的平衡難題。技術(shù)的敏捷迭代與治理的滯后性形成巨大張力,“治理追不上代碼”已成為各國面臨的共同難題。如何在創(chuàng)新紅利與算法黑箱、數(shù)據(jù)泄露、深度偽造等風(fēng)險之間劃線,成為各國監(jiān)管面臨的最大考驗;二是敏捷性治理能力不足。AI技術(shù)跨地域、跨場景的快速擴散,超越了傳統(tǒng)行政監(jiān)管的響應(yīng)速度,跨國數(shù)據(jù)流動與算法模型的無邊界性也使國家無法以一己之力解決問題;三是權(quán)力與責(zé)任的界定模糊。算法責(zé)任歸屬、平臺合規(guī)義務(wù)、通用人工智能風(fēng)險預(yù)案等核心議題,至今仍缺乏全球公認的基準,治理之路任重而道遠。
對話合作仍是必選項
盡管風(fēng)險挑戰(zhàn)頻現(xiàn),各國在“邊探索、邊應(yīng)對”的過程中,仍涌現(xiàn)出不少創(chuàng)新型治理實踐。
其中,監(jiān)管沙盒作為一種彈性監(jiān)管工具,正被越來越多國家采用。歐盟《人工智能法案》明確要求建立人工智能監(jiān)管沙盒機制。西班牙于2023年11月率先啟動歐盟首個AI監(jiān)管沙盒試點。目前,歐洲多國也在積極推進相關(guān)探索。
在中國,2025年12月,國家互聯(lián)網(wǎng)信息辦公室起草了《人工智能擬人化互動服務(wù)管理暫行辦法(征求意見稿)》,首次在部門規(guī)章層面明確“監(jiān)管沙盒”制度,允許企業(yè)在監(jiān)管機構(gòu)的監(jiān)督指導(dǎo)下開展創(chuàng)新試點和安全測試。
江天驕表示,在歐盟、英國、新加坡等地,AI監(jiān)管沙盒正從試點工具向長期制度化安排升級。這類機制為自動駕駛、AI醫(yī)療等特定領(lǐng)域提供了在受控環(huán)境中測試技術(shù)應(yīng)用的法律和制度框架,也為技術(shù)風(fēng)險劃定了合理邊界。
監(jiān)管沙盒之外,場景化的立法也呈快速增長趨勢。例如,美國針對自動駕駛責(zé)任、深度偽造分別立法。在中國,今年的全國兩會也就AI生成內(nèi)容的版權(quán)歸屬、算法歧視等專項立法建議進行了廣泛討論。
專家指出,多元的治理路徑并不意味著各行其是,對話與合作對全球至關(guān)重要。
“人工智能作為新興技術(shù),天然具備跨領(lǐng)域、跨國界的特性。一國企業(yè)開發(fā)的模型可為全球用戶提供服務(wù),若各區(qū)域立法差異過大,企業(yè)合規(guī)成本將急劇攀升。因此,尋求對話與合作是必選項。同時,AI帶來的諸多問題本身就需要跨境協(xié)作。例如,深度偽造的跨國傳播如何處罰?虛假信息干預(yù)他國選舉如何應(yīng)對?使用AI的網(wǎng)絡(luò)攻擊如何防范?這些問題在AI出現(xiàn)前已亟須國際合作,AI的介入更讓這種協(xié)作成為必需。”周亞金說。
李艷表示,當(dāng)前,多國正在探索跨國自愿準則與技術(shù)標(biāo)準的融合。歷史經(jīng)驗證明,最佳實踐的分享與互鑒是打破治理困境的關(guān)鍵。因此,國際對話必不可少。唯有通過多邊機制搭建溝通橋梁,才能彌合不同國家在監(jiān)管認知上的鴻溝,推動形成兼顧各國國情與全球共同利益的治理規(guī)則,避免因治理碎片化引發(fā)的失靈甚至失效。
“全球AI治理已有原則性共識,但距穩(wěn)定成型的治理體系仍有距離。”李艷表示,在此背景下,中國發(fā)布《全球人工智能治理倡議》,倡導(dǎo)“秉持共同、綜合、合作、可持續(xù)的安全觀,堅持發(fā)展和安全并重的原則,通過對話與合作凝聚共識”,為國際社會提供了具有重要參考價值的中國方案。
“從全球范圍來看,AI治理的國際對話越發(fā)迫切。”江天驕說,無論是深度偽造、網(wǎng)絡(luò)攻擊,還是不法分子濫用引發(fā)的更為嚴重的核生化恐怖襲擊,都使全球面臨“一損俱損”的局面。任何一國的監(jiān)管缺位都可能成為全球風(fēng)險源。因此,各方急需圍繞各自的監(jiān)管立法和治理標(biāo)準進行交流和對話,在AI安全與數(shù)據(jù)流動等關(guān)鍵議題上開展政策協(xié)調(diào),逐步建立標(biāo)準互認和聯(lián)合評估機制,推動構(gòu)建普惠包容的安全與治理體系。
來源 | 《人民日報海外版》(2026年03月21日 第 06 版)
排版 | 蒲云濤
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.