![]()
“十五五”規劃綱要提出全面實施“人工智能+”行動。人工智能同產業發展、文化建設、民生保障、社會治理廣泛深度融合,將全方位賦能千行百業,為經濟社會發展增添新活力。與此同時,算法歧視、深度偽造等倫理風險也愈加凸顯。加強人工智能科技倫理治理,是堅守科技向善、筑牢科技安全底線、保障產業高質量發展的必然要求。
人工智能的倫理風險源于技術的“黑箱性”“自主性”與數據依賴性。治理不是減速器,而是穩壓器和安全網。人工智能科技倫理治理,本質是通過制度規則、技術約束與價值引導,為技術劃定邊界、明確責任,實現技術發展與人類福祉的協同推進。近年來,面對席卷全球的人工智能浪潮,從《關于加強科技倫理治理的意見》對科技倫理治理作出頂層設計和系統部署,到《科技倫理審查辦法(試行)》對科技倫理審查主體、審查程序作出具體規定;從黨的二十屆三中全會強調“加強科技倫理治理”,到“十五五”規劃綱要提出“加強人工智能治理,完善相關法律法規、政策制度、應用規范、倫理準則”,黨和國家高度重視科技倫理工作,統籌發展和安全,堅持促進創新與防范風險相統一,確保人工智能負責任創新。近日,工業和信息化部等十部門聯合印發《人工智能科技倫理審查與服務辦法(試行)》,標志著我國人工智能倫理治理從原則倡導邁向制度化、規范化新階段。
有效的治理必須以科學理念和清晰的原則作為指導。全球人工智能發展進入新階段,呈現出跨界融合、人機協同、群智開放等新特征,正在深刻改變人類社會生活、改變世界。以習近平總書記關于人工智能治理的重要論述為指引,我國確立了人工智能治理的七項倫理原則,即增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明、保護隱私安全、確保可控可信,這些原則為人工智能的開發、部署與應用提供了不可或缺的價值導向和行為規范。將這些原則貫穿于人工智能的研發、測試、應用與迭代全過程,是確保人工智能技術健康、可持續發展并造福人類社會的基礎。
構建多元協同的人工智能科技倫理治理體系。“人工智能+”背景下,技術應用場景更加多元,單一部門難以覆蓋全部監管需求。因此,需要整合政府、企業、科研機構、社會等多方力量,構建以內部審查與外部監督相結合為基本框架的多元協同治理體系。其一,強化政府監管與制度保障,出臺專項法規與倫理審查辦法,實施分類分級監管,對高風險AI應用強制審查,完善全生命周期閉環管控,筑牢規則底線。其二,壓實企業主體責任,推動企業建立內部倫理委員會,將倫理要求嵌入研發、運營全過程,強化數據治理與算法透明化,主動承擔倫理合規與風險防控責任。其三,構建多方協同共治生態,推動政府、企業、科研機構、公眾協同發力,加強全球規則對接與聯合監管,凝聚治理合力,應對跨國倫理挑戰。
加強人工智能倫理治理技術研發與工具創新。人工智能科技倫理治理不僅需要制度規范,也需要“硬科技”支撐。人工智能科技倫理審查涉及訓練數據的選擇標準,涉及算法、模型、系統的設計是否合理,是否采取措施防止偏見歧視、算法壓榨,如何保障資源分配、機會獲取、決策過程的客觀性與包容性等問題,強化以技術手段防范人工智能科技倫理風險,要推動技術內嵌倫理,運用去偏算法、隱私計算、可解釋AI等技術,從源頭規避倫理風險,實現技術手段與倫理要求的深度融合。這就需要聚焦算法公平性監測、深度偽造鑒別等關鍵技術開展專項攻關,研發實用的倫理評估工具、風險模擬平臺和算法審計系統。
人工智能的可持續發展不僅關乎技術進步,更關乎人類社會的未來。人工智能科技倫理治理不是對技術創新的限制,而是為創新劃定安全邊界、建立信任基礎的必要舉措。面對日益復雜的倫理風險,只有持續優化治理體系,平衡創新與風險、效率與公平,確保人工智能在安全、可靠、可信的軌道上運行,才能真正實現“以人為本,智能向善”的愿景。
(作者單位:華東政法大學法律學院)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.