![]()
促進人工智能健康發展的立法建議
□ 時建中 (中國政法大學教授)
人工智能作為人類歷史上最具革命性的技術,全方位深刻改變著經濟社會生活的每一個領域,直接關乎國家發展與安全。推進人工智能相關立法,需要在促進與規范之間實現平衡,協調多重利益與價值沖突等復雜關系,以制度創新護航我國在全球人工智能領域的核心競爭力。
發展與安全:夯實驅動發展的法治底座
人工智能直接關系國家核心競爭力,作為立法的基本原則,統籌發展與安全不能“脫實向虛”。促進發展的制度要“實”,既要彰顯促進人工智能發展的鮮明態度,更要圍繞研發、融資、人才、應用等關鍵環節,構建具體的激勵機制;規范發展的制度同樣要“實”,體現為科學配置權利、義務與責任,推動人工智能在法治軌道上開展研發應用。關于人工智能安全,立法應特別注意兩種傾向:一是“虛”化安全,安全制度“落不下、穩不住”;二是“泛”化安全,將所有風險,甚至一般技術及應用風險,均視為國家安全隱患,放大安全焦慮。立法對“安全”的關注,應以總體國家安全觀為遵循,對風險、應用場景等進行多維分類分級,聚焦威脅國家安全的重大風險,圍繞核心領域構建防控體系,做到發展有動力、安全有保障。
技術與制度:功能分界下的雙向塑造
立法必須厘清技術與法律的功能邊界。法律的功能是解決技術引發的社會問題,技術與法律的關鍵鏈接就是責任分配。無論是研發環節還是應用階段,凡是有可能損害國家利益和社會公共利益的,法律就應在不同環節、不同主體之間配置不同的權利、義務與責任予以規制。立法還應注意技術與制度之間“雙向塑造”的深層關系:人工智能既會給法治帶來新挑戰,也會成為賦能法治的新工具。例如,人工智能可以輔助裁判,提升司法效率;同時,不同的制度安排也會影響技術演進方向。合理的責任配置可以倒逼研發者重視算法公平性,推動可解釋AI的發展。立法應關注這種雙向互動,既不越位干預技術研發,又不缺位忽視技術風險。
政策與法律:功能互補的協同治理
人工智能的治理,政策與法律既缺一不可,又不能相互替代。一方面,立法不可能一蹴而就,面對技術快速迭代帶來的新問題,需要通過政策的靈活性、前瞻性予以及時響應。促進人工智能健康發展的導向性政策,可以為科學立法探索路徑、積累經驗;另一方面,法律具有穩定性、強制性的優勢,能夠將經過實踐檢驗的成熟政策,通過立法程序轉化為長效規則,為產業發展提供穩定預期。政策與法律協同的重點,是構建“政策推動—經驗積淀—法律固化”的循環機制。促進人工智能健康發展,既要重視政策的先導作用,又要強化政策的制度轉化,確保政策與法律在價值導向、主要目標等方面保持一致,形成推動人工智能發展的合力。
抽象與具體:以問題為導向的規則構建
促進人工智能健康發展的立法,必須堅持“問題導向”與“目標導向”的統一,確保法律規范針對性強、實施效果好,切忌陷入“概念化、標簽化、抽象化”的誤區。人工智能帶來的挑戰紛繁復雜,立法不能止于抽象的“人工智能”。因此,立法的首要任務之一,就是清晰界定“人工智能”的概念,采用“概括+列舉”的方式明確其內涵、外延,避免因概念模糊導致法律制度及適用的紊亂。通過調研、歸納、提煉等方法,發現并聚焦具體要素、環節、場景的真問題,抓住人工智能發展與治理的本質,將制約人工智能健康發展的問題類型化,把抽象的法律原則轉化為可操作的行為規范,形成針對性的解決方案,概括為普適性規則。促進人工智能發展的制度需要具體針對關鍵要素予以構建:數據層面,規范采集、存儲、使用、流轉全流程;算法層面,關注公平性、透明度與可追溯性;算力層面,平衡合理配置與高效利用;能源層面,銜接綠色發展要求。
研發與運用:階段差異化的制度設計
研發與運用是人工智能發展的兩個主要階段,目標與風險特征截然不同。立法宜采用差異化的制度設計,建立不同的風險歸責原則。針對研發階段的立法,重點是鼓勵創新。人工智能底層技術研發具有高風險、長周期等特征,可控范圍內的試錯是技術成熟的必經之路,需要“制度特區式”的容錯空間。例如,《國務院關于深入實施“人工智能+”行動的意見》提出的“完善應用試錯容錯管理制度”,尤其值得上升為具體制度規范;針對運用階段的立法,重點是明確權利、義務與責任邊界,強化合規要求、保障應用安全,規范應用秩序。當前,我國在政策層面強調人工智能運用,既符合技術落地的需求,也承載著“以技術應用倒逼基礎研究突破”的迫切期待。面對基礎領域“卡脖子”的困境,拓展應用場景反哺基礎研發成為重要路徑。為此,立法更需立足這一國情與地緣政治現實,設計能用、好用、管用的具體制度,構建“研發階段容錯激勵、應用階段規范引導、應用推動基礎研發”的促進支撐制度體系。
比較與借鑒:立足國情的理性吸收
人工智能具有全領域普遍賦能的通用性,研發和應用規律的一致性,決定了他國規則的可借鑒性。但是,借鑒國外立法經驗,必須建立在對國外相關制度全面準確認知、客觀理性評價的基礎上,不能淺嘗輒止法律文本表層的差異對比,而應深入剖析背后的政治體制、經濟模式、技術基礎、社會文化等多重原因,避免片面解讀、武斷評判、不當借鑒。立法時,須超越“輕監管”或“重監管”的標簽化認知,借鑒國外人工智能促進發展、體系化治理等合理經驗,聚焦我國“卡脖子”問題與治理需求,而非盲目照搬、排斥。
法律與標準:協同發力的治理體系
促進人工智能健康發展,離不開法律與標準的協同。立法應強化“標準”的重要作用。無論是研發環節的技術規范,還是應用場景的操作要求,均需政府、行業協會、企業等多方主體共同參與,制定高質量的國家標準、行業標準與企業標準,持續提升我國涉人工智能標準的全球競爭力、引導力。二者的協同,關鍵在于健全互補機制:一方面,將經過實踐檢驗、具有護航競爭力的重要標準,如高風險AI系統的安全評估標準、算法公平性標準等上升為法律規范,增強標準的權威性與強制力;另一方面,立法設置授權條款,為標準的升級預留接口,形成“法律定底線、標準筑防線”的多層次治理體系,提升治理的精準性與有效性。
開源與閉源:多元技術路線的平等保護
開源與閉源是人工智能發展的兩種重要模式,對應不同的技術路線與生態需求。兩種模式均有不可替代的價值:開源模式通過代碼共享加速技術迭代,尤其適合基礎性、通用性技術研發,能夠快速匯聚創新力量;閉源模式通過技術保密保障商業利益,為企業巨額研發投入提供動力和保障,在高端芯片、專用算法等核心領域具有重要作用。立法是為了構建適宜人工智能發展的制度環境,對不同的技術路線,秉持中立開放態度,只作客觀分類,不作價值評判,通過差異化規制,予以平等保護,激發創新活力。對開源生態,重點規范代碼共享協議的法律效力、貢獻者權利保護及風險責任界定;對閉源技術,聚焦防范技術壟斷、保障數據安全及高風險場景下的必要透明度。
當下與長遠:適應技術演進的彈性框架
人工智能的快速迭代特性,決定了立法不僅應符合人工智能當前發展需求,而且能適應未來技術演進。立法須謹防“靜態文本”困境,構建“基礎規則+動態調整”的彈性框架。基礎規則層面,以總體國家安全觀、權利保障、創新激勵等為重要原則,筑牢基礎制度,確保法律的穩定性與可預期性,為市場提供明確的行為指引。鑒于人工智能迭代快、應用場景豐富的特點,可采“法律原則+授權條款+配套細則”的立法模式,為技術創新與制度調整預留接口。例如,當前針對通用大模型的規制重點,與未來強人工智能時代的立法焦點必然存在差異,立法需通過彈性條款預先回應技術演進的結構性變化,實現“管當下”與“利長遠”的有機統一。為增強制度的適應性,適配人工智能發展階段性特征、應用場景拓展變化,應建立制度的定期評估機制,及時調整具體規范。
綜上,人工智能立法須錨定打造國家競爭力的戰略目標,尊重規律、立足國情,深刻理解制度創新與技術發展的底層邏輯,協調發展與安全、技術與制度、促進與規范等關系,既要破解當前“卡脖子”困境,又要為長遠發展奠定制度基礎。
本文作者時建中,中國政法大學教授。以上內容轉載自法治日報法學院,本文章僅限學習交流使用,版權歸原作者所有。
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.