![]()
![]()
AI這匹潛力無限的“駿馬”正馳騁向前,如何為其套上“向善”的韁繩?
文/錢學勝
復旦大學智慧城市研究中心高級研究員,《科學畫報》編委會人工智能專委會副主任委員。
人工智能(AI)正前所未有地重塑著我們的世界。從科學研究到藝術創作,從工業生產到數字娛樂,AI已深深嵌入社會生活的方方面面。然而,正如歷史上出現的每一項顛覆性的新興技術一樣,AI的機遇與風險始終并存。例如,深度偽造侵蝕著公眾信任,生成式AI引發版權歸屬之爭,等等。一系列挑戰考驗著我們駕馭這一新興技術的能力,也向我們揭示了一個事實:“向善”并非是AI與生俱來的能力,其發展軌跡并不自動導向增進人類福祉的坦途。
于是,“AI向善”理念應運而生。它強調AI發展應以造福人類為宗旨,遵循倫理準則,保障安全可靠,促進包容與可持續發展。
倫理先行
構建全球性共識
構建全球性共識是基礎性的第一步。早在AI技術席卷全球之初,一批前沿學者和從業者便開始了對AI倫理的探索。2017年,在美國阿西洛馬召開的人工智能安全會議首次提出了“有益智能”概念,系統性地強調了AI研發應以服務人類、避免潛在危害為根本目標,為后續的全球探討奠定了基調。
此后,國際社會圍繞AI倫理的討論日益深化。聯合國專門機構國際電信聯盟自2017年起,在瑞士日內瓦定期舉辦“善用人工智能(AI for Good)全球峰會”。2021年,聯合國教科文組織通過了首份關于AI倫理的全球性框架《人工智能倫理問題建議書》,確立了透明度、公平性、責任與隱私保護等十大原則。
隨著AI能力的飛速躍升,AI全球治理進程明顯加速。2023年,英國主辦了首屆全球人工智能安全峰會并發布了《布萊切利宣言》,呼吁就AI前沿模型的安全性展開國際合作。法國通過人工智能行動峰會,推動在AI倫理測試與一致性評估上開展合作。2024年3月,聯合國大會通過了首個關于AI的全球決議,標志著AI治理已成為最高級別的全球政治議程。
以上的一系列行動清晰地勾勒出一條從學術倡議到政府共識,再到全球政治決議的演進脈絡。在這一過程之中,“中國智慧”不容忽視。中國先后發布了一系列重要文件和倡議,系統性地闡述了在推動發展、確保安全和維護公平等方面的主張,為全球AI治理貢獻了“中國方案”。目前,中國正在積極倡議成立世界人工智能合作組織,這也預示著一個更加開放、包容和有效的全球AI治理新時代即將到來。
技術向善
為代碼植入“價值觀”
共識原則離不開技術實踐的落地。如何在算法設計與系統部署中嵌入“善”的價值觀,是技術領域的關鍵挑戰。近年來,一系列旨在增強“智善”水平的技術方向得到了快速發展。
首先是可解釋AI。以深度學習為代表的傳統AI模型常因其決策過程不透明而被詬病為“黑箱”。可解釋AI的宗旨就是打開“黑箱”,為用戶和監管者提供模型可理解的理由。這不僅有助于技術信任的建立,也為發現并修正模型的潛在偏見提供了可能。
其次是AI對齊,其核心是確保AI系統的目標與人類價值觀一致。這不僅僅是為了防止AI執行有害指令,更涉及如何使AI在面對模糊或復雜情境時,能夠準確理解并遵循人類社會的倫理規范與價值偏好,避免出現“目標錯位”導致的意外后果。
最后,“去偏見”技術旨在減少訓練數據或模型結構中隱含的性別、種族、年齡等既有歧視性偏差,以提升AI決策的公平性。聯邦學習、差分隱私等隱私保護計算技術,使不直接暴露原始敏感數據的模型訓練成為可能,有效平衡了AI發展與隱私保護。這些技術共同構成了一個“AI工具箱”, 為構建負責任、可信賴的AI系統提供了可實現的路徑。
法規就位
從原則到實踐的“硬約束”
倫理共識與技術善意需要轉化為法律規范,才能形成有效的治理效力。近年來,世界主要經濟體都在積極探索將AI倫理原則落地為法律實踐的路徑,形成了各具特色的監管模式。
歐盟在2024年完成了《人工智能法案》的立法程序,將AI應用劃分為四個不同的風險等級,并施以不同強度的監管措施。這種精細化的“風險金字塔”模式,力圖在保障公民基本權利與促進技術創新之間取得平衡。與歐盟的強監管不同,美國選擇了以行業標準和自愿性框架為主導的“軟法”路徑,這種模式強調靈活性和創新激勵,但也被認為在統一性和強制力上有所不足。
我國的AI法律法規體系建設路徑有別于歐美。從2017年《新一代人工智能發展規劃》提出建立AI法律法規、倫理規范和政策體系,到2025年《關于深入實施“人工智能+”行動的意見》提出“完善人工智能法律法規、倫理準則等,推進人工智能健康發展相關立法工作”,顯現中國將立法與實踐協同并舉,審慎而又系統的推進思路。
多元共治
凝聚社會力量的“生態系統”
人工智能治理不僅需要倫理的邊界、技術的框架法律的韁繩,更需要全社會各方力量的共同努力和監督。
首先,學術機構是推動AI治理的主導力量。美國坦福大學以人為本AI研究所、我國清華大學人工智能國際治理研究院等頂尖學術機構,始終在政策研究與國際對話中扮演積極角色,持續不斷為復雜的AI治理問題提供深刻洞見和長遠解決方案。
其次,技術組織為AI技術提供方向指引。例如,電氣與電子工程師協會發起的全球自主智能系統倫理全球倡議,通過將抽象的倫理原則轉化為可操作、可衡量的具體技術標準,推動AI和自主系統以符合倫理、以人為本方式發展,其成果深刻影響著現今相關技術標準的制定。
再次,開源社區也是多元共治的重要基石。這些社區推動了模型與工具的開放與共享,使公眾得以審查復現和改進算法,這不僅提升了透明度,也增加了公眾監督可能。
從次,產業界的力量是不可或缺的。目前,國際主要科技公司已經成立了前沿模型論壇、人工智能聯盟等行業組織,確保前沿AI模型的安全與負責任開發。一批中國代表性的科技企業共同參與了《人工智能安全承諾》倡議并自愿披露安全實踐成果,邁出AI自律共識向實踐落地的關鍵一步。
最后,科普工作者、媒體與具備數字素養的公眾也扮演著重要角色。其通過普及AI知識、展開公共討論、監督技術濫用,持續塑造AI發展的社會規范和價值導向。唯有多元主體積極參與,才能形成一個穩健、包容且不斷適應技術變革的AI治理生態系統。
從 “向善” 到 “智善”
回望推動“AI向善”的全球行動,人類已從原則共識走向技術實踐與制度創新,初步構建起涵蓋倫理規范(道)、技術工具(術)、法律框架(法)與社會共治(人)的治理體系。然而,前路依然充滿挑戰,技術迭代與治理演進間的“步調差”依舊顯著。
展望未來,AI的航向歸根結底取決于我們今天的選擇。國家層面是協同合作還是封閉孤立?產業層面是開放包容還是巨頭壟斷?對身處其中的每一位個體而言,應持續提升AI素養,讓每一次與AI的交互都成為推動向善的微小力量,共同推動AI最終抵達“智善”境界——這不僅關乎AI, 更關乎我們智能時代的未來。
![]()
![]()
點擊圖片訂閱
2026年《科學畫報》
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.