近日,工信部等十部門聯合印發《人工智能科技倫理審查與服務辦法(試行)》(以下簡稱《辦法》),明確了AI科技倫理審查的適用范圍、實施主體、審查程序、監督管理等核心內容,同時從標準建設、服務體系、鼓勵創新、人才培養等五個方面制定支持舉措,為企業AI倫理風險防控提供了清晰的制度指引。《辦法》的出臺,標志著我國AI倫理治理進入制度化、規范化的新階段。
![]()
近年來,以大模型、生成式AI為代表的人工智能技術快速發展,深度融入經濟社會各個領域,催生了新業態、新模式,為經濟社會發展注入了新動能。與此同時,AI技術發展也帶來了隱私泄露、算法歧視、深度偽造、責任界定模糊等一系列倫理風險,對個人權益、公共安全造成了潛在影響。全球范圍內,AI治理已成為普遍共識,歐盟、美國等多個國家和地區均已出臺相關監管規則,推動AI技術規范發展。
![]()
本次發布的《辦法》,立足我國AI產業發展實際,構建了系統完善的AI倫理治理體系,核心亮點突出。其一,實現了全生命周期全鏈條覆蓋,適用范圍覆蓋AI科學研究、技術開發、產品應用的全流程,適用主體包括企業、高校、科研機構等各類市場主體,形成了全流程的倫理風險管控體系。其二,建立了分級分類審查機制,遵循“風險越高,審查越嚴”的原則,針對低風險、中風險、高風險、緊急風險四類場景,分別設置對應的審查程序,既實現了對高風險場景的嚴格管控,也避免了“一刀切”監管對行業創新的影響。其三,明確了高風險領域管控紅線,針對人機融合系統研發、具備輿論社會動員能力的算法研發、涉及人身安全的高自主決策系統研發三類高風險AI活動,設置雙重把關機制,明確審查不通過的項目不得立項、不得融資、不得上線,從源頭防范重大倫理風險。其四,堅持規范與支持并重,在明確監管要求的同時,出臺多項配套支持舉措,明確中小企業可通過委托公共服務機構完成倫理審查,大幅降低企業合規成本,兼顧了行業安全與創新發展。
![]()
同時也應理性認識到,《辦法》的出臺是AI倫理治理制度化的重要起點,其落地執行仍面臨多重現實挑戰。首先,AI技術迭代速度快,AGI、具身智能等新技術、新場景持續涌現,倫理風險的形態與特征也在不斷變化,需要監管制度持續動態適配,跟上技術發展的步伐。其次,倫理審查落地實操存在難度,AI倫理風險具備隱蔽性、復雜性,算法黑箱導致部分潛在風險難以提前識別與量化評估,同時不同行業、不同場景的AI應用,倫理風險類型與等級差異較大,對審查的精準化、差異化提出了較高要求。此外,大量中小AI企業的合規能力仍有短板,需要配套支持舉措持續落地,幫助企業建立完善的合規體系,推動《辦法》實現全行業覆蓋。
總體而言,《辦法》的出臺,為我國AI產業發展劃定了清晰的倫理邊界,也為全球AI治理提供了中國方案。后續通過監管部門、企業、科研機構、行業協會等多方協同發力,推動《辦法》落地執行,持續完善AI倫理治理體系,才能在創新與規范之間找到平衡,推動人工智能技術向善發展,更好地服務于經濟社會高質量發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.