建立信任 人工智能 框架、應用程序和就緒性自我評估
Building Trustworthy Artificial Intelligence Frameworks, Applications, and Self-Assessment for Readiness
https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf
![]()
![]()
![]()
- 引言
人工智能(AI)在公共治理中的變革潛力日益受到發達經濟體與發展中國家的共同重視。各國政府正積極探索并采納AI技術,以提升公共服務供給質量、優化行政效率,并強化數據驅動的決策能力。然而,將AI融入公共系統也帶來了倫理、技術與制度層面的多重挑戰——從算法偏見、透明度缺失,到數據隱私風險與監管碎片化等問題。在公共部門語境下,此類挑戰尤為突出,因該領域對信任、問責與公平具有根本性要求。
本文旨在回應一個核心問題:公共機構應如何以負責任的方式采納AI,同時保障隱私、促進公平并確保問責? 具體而言,本文聚焦于政府機構在可信且負責任地實施AI技術方面的準備程度。
本文的主要讀者群體包括參與公共部門AI設計、監督與實施的相關利益方,涵蓋:公共部門領導者、技術政策制定者、數字治理專業人員,以及致力于制度能力建設與數字化轉型的發展合作伙伴。盡管全球范圍內關于可信AI的框架持續演進,且倫理原則已得到廣泛討論,許多政府團隊在將這些高層理念轉化為實際操作決策時仍面臨困難——尤其是在資源受限或制度碎片化的環境中。
為彌合這一鴻溝,本文兼顧理論奠基與實踐工具支持:
第一,系統梳理支撐可信AI治理的關鍵倫理考量與國際框架;
第二,介紹可緩解AI部署中新興風險的相關技術方案,包括可解釋性模型、隱私增強技術(PETs)及算法公平性方法;
第三,提出一套面向公共機構的自評估工具包:涵蓋AI應用決策流程圖與數據隱私準備度檢查清單。這些工具旨在幫助公共部門行動者評估自身準備狀況、識別制度短板,并在AI采納前優化內部協調流程。
通過連接理論與實踐,本文為全球構建合法、合乎倫理、包容且植根于制度現實的可信AI的持續努力作出貢獻。
- 人工智能在公共治理中的應用
人工智能(AI)在提升公共治理方面展現出巨大潛力,包括優化政策制定流程、提供更加個性化的服務以及推動創新。然而,政府對AI的采納也引發了圍繞隱私、公平性與問責制等關鍵倫理問題的重要關切。本節將探討AI如何在公共部門中加以應用,概述核心倫理考量,并介紹構建可信AI系統所需的基礎概念。
2.1 AI在公共服務領域推動創新與效率的潛力
AI致力于開發能夠執行通常需人類智能才能完成的任務(如學習、問題求解與決策)的計算機系統。在AI語境下討論“最優政策制定”,指的是利用AI的上述能力,通過高效、準確地分析海量數據,顯著優化政策流程。其具體體現為以下方面:
- 提升流程效率:AI可實現任務自動化,快速分析數據,并識別人類可能忽略的模式,從而加快決策速度并提升決策質量;
- 改善服務供給:AI可實現服務個性化、預測未來需求,并提升服務的可及性與質量。
通過強化這些核心能力,AI可在多個領域推動高效且有效的流程變革。AI技術的應用場景極為廣泛,涵蓋數據分析、模式識別及基于AI的仿真等實踐。本節將通過具體案例考察其應用,并呈現AI技術實際落地的實施藍圖,同時探討其潛在的法律影響與挑戰。
2.1.1 政策制定流程的效率提升
AI可通過分析海量數據徹底革新政策制定流程(Deloitte, 2017),使政府更高效地尋求復雜社會問題的解決方案,并優化資源配置(Margetts & Dorobantu, 2019)。相較于傳統以人力為中心的分析方法,AI處理數據的速度更快、精度更高,使政策制定者能迅速把握快速變化的社會經濟指標,并及時作出響應。此外,AI還可通過開展復雜的情景模擬與風險評估,降低決策風險——例如,利用機器學習模型預測不同政策干預方案的長期社會影響,從而支持更穩健的政策選擇。
通過開展復雜的情景模擬與預測建模,AI可提前分析不同政策選項的潛在結果。例如,利用自然語言處理(NLP)技術分析公眾輿論或媒體報道,有助于把握社會情緒,并將其納入政策制定過程。
盡管AI可在一定程度上緩解某些人類偏見(如判斷不一致等問題),但它也帶來了新的風險,例如算法偏見與數據倫理使用問題,這些風險必須予以審慎管理。
2.1.2 更優質的公共服務
AI可通過提供定制化公共服務,實時把握并預測公民需求(Mehr, 2017)。相關實例包括:基于聊天機器人(chatbot)的市民投訴響應系統,或通過預測性分析優化交通流控——此類應用有助于提升公民生活質量(OECD, 2019a)。AI在提升公共服務的個性化與可及性方面發揮關鍵作用:借助機器學習(ML)算法分析個體公民的服務使用模式,可實現一系列個性化信息推送與服務供給。運用語音識別與自然語言處理(NLP)技術的虛擬助手服務,可提升殘障人士、老年人等數字弱勢群體的服務可及性。在交通領域,實時交通數據結合AI分析可預測擁堵狀況并推薦替代路線,從而提升出行效率;在醫療健康領域,基于AI的疾病預測與預防服務切實可行,有助于增強公共衛生政策的實效性。此類AI服務的拓展可提升公眾滿意度,并強化對政府的信任。然而,個人數據保護與安全相關問題仍需審慎審視。
2.2 人工智能與政府治理中的倫理考量
隨著AI日益深度嵌入公共部門運作,政府面臨愈加緊迫的使命:應對AI應用所伴生的倫理與治理挑戰。盡管AI具有變革性潛力——可提升服務供給質量、政策響應能力與運營效率,同時也帶來了復雜的新型風險(Floridi & Taddeo, 2016),包括數據隱私泄露、算法偏見、透明度缺失及問責機制缺位等。AI系統的誤用或失靈可能導致嚴重的社會、經濟與法律后果,因此政府亟需建立相應的法規與政策,以管控并防范此類風險(Jobin, Ienca, & Vayena, 2019)。一套完備的AI治理框架應致力于推動AI的安全與合乎倫理的使用,同時在技術創新與社會價值之間保持平衡(G20, 2019)。通過確立清晰的規則與標準,政府可切實保障公民權利與利益,并培育一個可信賴的AI生態系統(Fjeld et al., 2020)。
2.3 核心概念與術語
在AI領域,對核心概念與術語達成共識,是確保其負責任開發、應用與治理的前提。下述定義全面涵蓋了與可信AI密切相關的關鍵概念,強調在公共與私營部門各利益相關方之間,亟需協同推進公平性、透明性、問責性、隱私保護以及跨部門協作。
2.3.1 可信人工智能治理的核心概念
- 可信人工智能(Trustworthy AI):指滿足公平性、透明性、安全性與問責性等核心要求的AI系統,以確保其符合倫理與法律標準,從而贏得公眾信任(Coeckelbergh, 2020;Fjeld et al., 2020;G20, 2019)。它還包括具備強健性(robustness)的系統設計,能夠抵御模型投毒(model poisoning)、提示注入(prompt injection)等網絡安全威脅。
- 人工智能治理(AI governance):指對AI的研發與應用進行監督、規范與協調的整體性制度或流程。其涵蓋政策、倫理與技術標準(G20, 2019;Geyer, Klein & Nabi, 2017),是確保AI創新與社會目標及價值觀保持一致的關鍵機制。
- 責任共擔(Distributed responsibility):指AI系統所產生的結果責任由多方利益相關者共同承擔,而非僅歸于單一實體(日本政府,2016),旨在應對復雜AI系統中問責主體難以界定的挑戰。該理念對于實現公共部門AI部署的透明性與公平性至關重要。
- 倫理標準(Ethical standards):指在AI開發與部署全過程中維護人權、公平性與安全性等價值的指導原則(Coeckelbergh, 2020;G20, 2019;世界經濟論壇,2020),其有效落實依賴于政府官員、開發者與公眾的共同理解與遵守。
- 問責制(Accountability):指當AI相關錯誤或損害發生時,明確界定責任歸屬。在涉及開發者、運營者與用戶等多方參與的復雜AI生命周期中,問責制尤為關鍵(Floridi & Taddeo, 2016;日本AI戰略委員會,2017)。它與多方AI系統中的“責任共擔”理念緊密關聯(日本政府,2016)。
- 可解釋性(Explainability):指AI系統能夠為其決策或預測提供人類可理解的理由,旨在解決深度學習等技術中存在的“黑箱”問題。可解釋人工智能(XAI)使政策決策過程透明化,令利益相關者得以審查AI的推理邏輯(Gunning, 2017;Jobin, Ienca & Vayena, 2019;白宮,2019)。
- 偏見(Bias):指由數據或算法設計導致的系統性偏差,可能引發不公或歧視性結果,其形式多樣(如數據偏見、算法偏見),并可能加劇社會不平等(歐洲數據保護委員會,2018;O’Neil, 2016)。在公共政策領域,最大限度減少偏見對于確保服務與決策的公平性至關重要。
- 自主性(Autonomy):適用于人類與AI兩方面;對人類而言,指在決策中具備道德推理與自由意志的能力;對AI而言,則指基于數據與算法獨立執行任務的能力(英國信息專員辦公室,2020;Sweeney, 2013)。在公共治理中,平衡AI的自主運行與人類監督十分關鍵。
方框1. 人類與人工智能的自主性對比
維護人類自主性
從哲學角度而言,自主性對人類與人工智能的應用存在本質差異。人類自主性包含真正的自由意志與道德推理能力,這構成了道德能動性與責任的基礎(Montag, Nakov, and Ali, 2024)。相比之下,人工智能缺乏意識與道德意圖,因此無法擁有真正的道德自主性,也不能被視為獨立的道德主體。相反,AI系統應被明確設計為增強而非取代人類判斷與決策能力。近期研究強調系統設計的重要性——無論是增強還是削弱人類自主性,AI交互模式與文化語境都會顯著影響用戶在使用AI系統時是感到掌控還是被迫服從(Montag, Nakov, and Ali, 2024)。例如,向用戶提供真實替代選項——如允許其選擇與人類代表互動,而非僅限于與AI交互——可顯著提升信任度、接受度及感知到的自主性。尊重本地規范、具備交互性與可解釋性的AI可進一步強化用戶自主性;而隱晦或專制型AI則會削弱之。因此,保護人類自主性不僅是一種道德義務,也是一種確保可信AI的務實策略。“人在回路”(human-in-the-loop)方法——允許用戶理解、質疑或覆蓋AI輸出——確保了道德責任仍牢牢掌握在人類手中,使AI系統設計與康德式自主原則及當代“責任共擔”理念相契合(Montag, Nakov, and Ali, 2024)。
定義人工智能自主性與問責制
相較之下,人工智能自主性嚴格指根據預設算法與數據輸入,在無道德判斷或意識體驗的前提下獨立執行任務的能力(Bryson, 2020; Floridi, 2014)。信息哲學將此稱為“功能性自主性”,強調AI信息處理系統的復雜性與適應性(Bostrom, 2014)。AI可對環境輸入做出反應并自適應調整,但這些響應并不內化人類的道德判斷或意圖(Dreyfus, 1992)。因此,人工智能自主性本質上是技術性的,而非道德性的。
隨著AI系統操作自主性的擴展,問責制成為關鍵議題:傳統責任框架將道德責任完全賦予具備意圖與道德判斷能力的人類行動者(Matthias, 2004)。然而,AI系統通常涉及眾多利益相關者——如數據科學家、工程師、企業與用戶——這使問責變得復雜。為應對AI系統結果責任歸屬的復雜性,新型責任模型如“分布式責任”或“共享責任”應運而生(Righetti, Madhavan, and Chatila, 2019)。“分布式責任”意味著責任由開發者、用戶、運營者及所有參與系統設計與實施的利益相關者,根據其角色與影響力程度共同承擔(歐洲議會,2017)。該方法承認AI開發與運行固有的協作性,確保在應對倫理關切、安全風險與意外后果時保持清晰性與公平性。
2.3.2 隱私保護技術
- 差分隱私(Differential privacy):指通過對數據添加統計噪聲,防止識別個體數據記錄,從而在保障個人信息安全的前提下,支持數據分析或模型訓練的技術(Floridi & Cowls, 2019)。它對于平衡隱私保護與AI實用性至關重要。
- 聯邦學習(Federated learning):指一種去中心化的機器學習方法,原始數據保留在本地設備或機構內,僅共享模型參數。該技術可降低隱私泄露風險,支持多方協作式AI開發(歐盟委員會, 2020;UNESCO & COMEST, 2019),現已被廣泛應用于醫療、金融等敏感數據處理領域。
- 同態加密(Homomorphic encryption):指一種允許在加密數據上直接進行計算(如加法、乘法)而無需先解密的加密方案,可在確保數據機密性的同時,實現安全的AI模型訓練與推理(歐盟委員會, 2020;Floridi & Cowls, 2019)。該技術在公共行政與醫療數據處理等敏感場景中具有重要應用價值。
- 數據最小化原則(Data minimization principle):指僅收集與使用AI運行所必需的數據,避免不必要地采集個人數據(Doshi-Velez & Kim, 2017)。該原則在公共部門為政策目的使用數據時尤為關鍵,有助于在保障功能性的同時維護隱私權。
- 由大數據驅動的決策制定
數據分析、模式識別與模擬技術能夠增強決策過程。這些技術使政策制定者能夠從大規模、復雜的數據集中提取洞見,預測未來結果,并優化政策干預措施,從而提升其決策的有效性、效率與前瞻性。
3.1 數據分析與模式識別:一種整合方法
在人工智能領域,數據分析與模式識別深度交織,常協同工作,以從數據中提取有價值的洞見并支持智能決策。這兩個領域對于AI系統如何處理和理解海量信息至關重要。
數據分析是指將原始數據集系統性地轉化為有用知識的計算過程。在人工智能背景下,數據分析指利用AI技術分析大規模、復雜的數據集,簡化流程、識別趨勢并挖掘可操作的洞見(Eggers, Schatsky, & Viechnicki, 2017)。它涵蓋從收集、清洗、轉換到應用模型于原始數據的整個生命周期,最終提取出與決策相關的有效信息(Eggers, Schatsky, & Viechnicki, 2017)。這包括處理結構化、半結構化和非結構化數據的能力(Margetts & Dorobantu, 2019)。根據目標與方法,數據分析可大致分為以下幾類(Deloitte, 2017):
- 描述性分析(Descriptive analytics):回答“發生了什么?”——聚焦于總結歷史數據以理解基本特征。AI通過快速處理大量結構化與非結構化數據,識別模式、趨勢與相關性,強化了這一能力。例如,零售商可部署AI算法分析客戶數據,揭示購買趨勢與偏好。
- 診斷性分析(Diagnostic analytics):探究“為什么會發生?”——識別復雜數據集中的根本原因與關聯。AI加速了這一過程,例如,在醫療保健領域,通過分析患者數據、病史與實驗室結果,AI能比傳統方法更準確、更迅速地定位疾病的根本成因。
- 預測性分析(Predictive analytics):預測“接下來可能發生什么?”——利用歷史數據、統計建模及AI/機器學習(ML)來預測未來趨勢與結果。示例包括預測金融市場走勢或預估制造設備的維護需求。
- 指導性分析(Prescriptive analytics):確定“我們下一步該做什么?”——基于前期階段的洞見,提供可執行的建議以優化未來行動。AI通過分析情景發揮貢獻,例如在供應鏈管理中,AI分析庫存水平、需求預測與運輸條件,以推薦最優訂單數量與交付時間表。
模式識別是人工智能與機器學習的一個基礎分支,關注機器識別、分析與分類數據中模式(如規律、趨勢、結構等)的能力(Russell & Norvig, 2016)。這涉及使用算法檢測各類數據類型(包括圖像、音頻、文本和數值數據)中的模式(Russell & Norvig, 2016)。其目標是從數據中提取有用信息,理解、分類并解釋數據,從而支持諸如物體識別、異常檢測與預測等任務(Russell & Norvig, 2016)。
模式識別采用多種方法,包括統計方法、機器學習(如監督學習與無監督學習),以及深度學習(如用于圖像模式的卷積神經網絡[ CNNs ]、用于文本序列的Transformer模型)(Russell & Norvig, 2016)。這些技術是數據科學家在各領域理解和分類數據的核心工具(Russell & Norvig, 2016)。
3.1.1 共生關系:模式識別如何驅動數據分析
數據分析與模式識別緊密關聯,其中模式識別是現代數據分析的關鍵引擎。它不僅是一個相關領域,更是一種基礎能力,為高級數據分析提供支撐并使之成為可能(Russell & Norvig, 2016)。數據科學家運用人工智能驅動的模式識別技術來理解、分類與解釋數據——這正是數據分析生命周期中的核心活動(Russell & Norvig, 2016)。
基于人工智能的模式識別技術(如機器學習、深度學習)使數據科學家能夠高效分析海量、復雜的數據集,識別出傳統方法難以甚至無法察覺的細微模式、相關性與趨勢(OECD, 2019a),從而實現更深層次的理解與更精準的數據驅動決策(OECD, 2019a)。
在歷史與當前數據中識別模式的能力,對于構建預測模型(預測未來事件)與指導性模型(推薦行動方案)至關重要——這兩類模型正是高級數據分析的核心產出(Deloitte, 2017)。例如,預測設備維護需求或預判消費者需求變化,均依賴于對相關數據模式的有效識別(Russell & Norvig, 2016)。
許多現代模式識別技術,尤其是基于深度學習的方法(如用于圖像識別的卷積神經網絡[CNNs]、用于文本序列建模的循環神經網絡[RNNs]/Transformer模型),專門被設計用于從非結構化數據中提取模式,顯著拓展了數據分析的適用范圍(Eggers, Schatsky, & Viechnicki, 2017)。數據分析為模式識別提供基礎語境(即經過清洗與處理的數據)并解釋其發現;而模式識別所生成的洞見又反哺分析過程,優化模型,從而提升預測與解決方案的可靠性。
這種關系并非靜態,而是一種不斷演化的共生關系。隨著數據在體量(volume)、速度(velocity)與多樣性(variety)——尤其是非結構化數據——方面的持續增長,數據分析日益依賴于復雜的、基于人工智能的模式識別技術(如深度學習)。模式識別正從一種數據分析的輔助工具,轉變為驅動現代大規模數據分析的核心引擎。數據復雜性的提升,也要求模式識別技術日趨精密,表明其作用已遠超“組成部分”,而成為賦能性關鍵能力。正如Russell與Norvig(2016)所指出,人工智能“快速高效地分析海量數據”并識別“用其他技術難以或無法檢測的模式”的能力,正標志著這一轉變。
因此,模式識別領域的進步直接推動了數據分析在廣度與深度上的拓展,尤其在復雜應用領域中表現突出。
然而,隨著數據分析與模式識別日益依賴復雜的“黑箱”AI模型(如深度學習),二者共同面臨一項關鍵挑戰:可解釋性與可理解性的需求。若底層推理過程不透明,則數據分析所得洞見與模式識別所獲規律的價值將大打折扣,削弱信任并阻礙可操作的決策制定。復雜AI模型的內部決策邏輯通常缺乏內在透明性(Adadi & Berrada, 2018)。“這些系統的有效性受限于機器當前無法向人類用戶解釋其決策與行動的能力”(Gunning, 2017)。這種理解缺失引發了人們對“可靠性、公平性、偏見及其他倫理問題”的擔憂(Adadi & Berrada, 2018)。為使數據分析真正實現“知情決策”(Eggers, Schatsky, & Viechnicki, 2017),并使模式識別產出“有用信息”(G20, 2019),其輸出背后的推理邏輯必須可被理解。因此,在借助復雜AI推動數據分析與模式識別能力提升的同時,必須同步推進可解釋人工智能(XAI)的發展,以維系公眾信任、保障公平性,并支持有效的人類監督與干預。這一訴求已成為推動兩大領域協同演進的共同主線。
表1對比了人工智能中數據分析與模式識別的關鍵特征。
![]()
3.1.2 關鍵技術與應用
數據分析技術因人工智能(AI)與模式識別而得到顯著增強。AI 極大地提升了傳統數據分析能力,例如自動化數據填補、合成數據生成以及洞察結果的解釋(White House, 2019)。生成式 AI 通過對話式界面革新了數據發現過程(Mehr, 2017)。模式識別則深化了特定類型的數據分析:
- 圖像與視頻分析:卷積神經網絡(CNNs)促進了醫學影像分析與安防應用(Eggers, Schatsky, & Viechnicki, 2017)。
- 自然語言處理(NLP):Transformer 架構支持文本分類與情感分析(Fjeld et al., 2020)。
- 語音識別:實現聲紋識別與虛擬助手功能(Mehr, 2017)。
- 異常檢測:識別異常模式,用于欺詐防范與疾病暴發預測(Deloitte, 2017)。
- 時間序列分析:預測金融市場走勢與消費者行為趨勢(Gunning, 2017)。
數據分析與模式識別持續協同發展,隨著人工智能的進步,其影響范圍預計將進一步擴大。二者協同推動各領域的創新,以下列舉若干應用實例:
- 醫療健康:疾病模式識別有助于指導治療方案制定與實現疾病的早期檢測(Deloitte, 2017;Floridi & Cowls, 2019)。
- 金融領域:交易異常檢測與市場趨勢預測(Deloitte, 2017;G20, 2019)。
- 零售行業:需求預測、庫存優化及個性化推薦(Deloitte, 2017;Doshi-Velez & Kim, 2017)。
- 制造業:基于物聯網(IoT)傳感器數據模式的預測性維護(Deloitte, 2017)。
- 公共政策制定:借助自然語言處理(NLP)與模式識別技術進行市場預測,并優化政策設計(Information Commissioner’s Office, 2020;Wirtz, Weyerer, & Geyer, 2019)。
3.2. 基于人工智能的模擬
人工智能驅動的模擬與建模被廣泛應用,因其能夠提前預測與評估政策實施效果(OECD,無日期)。它們在提升政策有效性、降低負面效應方面發揮著關鍵作用。在當代,基于人工智能的模擬與模型對于估計復雜系統的未來狀態尤為有用。
例如,模擬可預測交通政策調整后交通流的變化,或評估環境法規對產業的影響。模擬還支持多種情景的測試,以甄選最優政策方案。強化學習(Reinforcement Learning, RL)算法可用于制定針對政策實施后可能出現的各類情境的應對策略。RL 應用所產生的結果有助于降低政策失敗風險、減少負面影響——這些正是相關計算所追求的目標。
同時需謹記:模型的準確性高度依賴于輸入數據與基礎假設,因此必須持續進行驗證與更新。
- 人工智能應用中的倫理挑戰與風險
盡管人工智能為政府治理帶來的潛在收益巨大,但同等重要的是必須正視其應用所伴隨的倫理風險與治理挑戰。隨著人工智能系統越來越多地影響關乎公共福祉的決策,人們對其可解釋性、客觀性幻覺以及個人數據保護等問題日益關切。本節探討人工智能應用中的這些挑戰與風險,呼吁采取全面措施,以實現可信賴的人工智能應用。
4.1 可解釋性
深度學習等復雜人工智能模型往往具有“黑箱”特性,導致其結果難以解釋(Lipton, 2018)。這可能阻礙政策決策過程中的透明性與問責性保障。若政策制定所依賴的人工智能依據無法被理解,公眾對決策結果的信任可能減弱,進而損害政府與公眾之間的溝通與信任構建。此外,當預測或決策出現錯誤時,亦難以厘清責任歸屬。
為應對上述問題,亟需開發并采納可解釋人工智能(Explainable AI, XAI)技術。XAI 旨在以人類可理解的方式呈現人工智能系統的運行原理與決策過程,從而使政策制定者能夠審查其判斷依據,并視需進行調整。然而,目前 XAI 技術仍處于早期發展階段,亟需同步推進技術研發與制度支持。XAI 的更多細節將在下一節展開討論。
4.2 人工智能中的“客觀性幻覺”
人工智能常被視為支持數據驅動決策、減少特定類型人為錯誤的工具。通過系統性地處理大規模、多樣化的數據集,AI 有潛力緩解人類認知局限(例如過度依賴近期信息或情緒顯著性信息)所帶來的偏差。
然而,人工智能的應用并不能確保客觀性。AI 系統可能以多種方式表現出偏見,這些偏見往往與數據采集的方法與環境,以及模型開發過程中的各類選擇密切相關。一個新興的關切是所謂“AI 廢料”(AI slop)的泛濫——即由 AI 生成的低質量、誤導性或無關內容,可能扭曲信息環境并削弱公眾信任。
為應對這些風險,需在整個 AI 模型開發與應用流程中(從數據選擇、算法設計到系統部署)保持審慎關注。專欄 2 概述了可能影響 AI 應用客觀性與可靠性的常見偏見類型。
專欄 2. 偏見類型
A. 基于計算的偏見
- 數據偏見
- 因人工智能模型所學習的數據本身固有的偏見而產生的錯誤
- 由于特定群體或特征被過度代表或代表性不足,導致預測結果失真
- 算法偏見
- 在算法設計或選擇過程中引入偏見而導致的錯誤
- 特定結果或預測發生扭曲,削弱公平性
- 抽樣偏見
- 數據收集時樣本未能代表整體人群而產生的錯誤
- 結果難以泛化,降低預測準確性
- 選擇偏見
- 在數據或案例選擇過程中,對特定元素的高估或低估
- 分析結果出現偏差,導致得出錯誤結論
- 表征偏見
- 數據集未能恰當反映特定群體或特征
- 模型對某些群體做出不準確的預測
- 遺漏、自選擇與數據不平衡偏見
- 數據中缺失重要特征或變量,導致模型預測不準確
- 由于數據不完整,結果可靠性降低
- 因參與者自我選擇,研究或調查中的樣本代表性下降
- 結果偏向特定群體的觀點或特征
- 由于各類別間數據量不平衡,模型對特定類別做出有偏預測
- 對稀有類別的預測準確性下降
- 過擬合偏見
- 模型在訓練數據上過度專門化,削弱其對新數據的泛化能力
- 實際應用中性能下降
- 隱私偏見
- 為保護個人信息而限制數據收集時,在數據集中產生的偏見
- 由于模型缺少部分信息,預測能力降低
- 有偏損失函數
- 設計出傾向于特定結果的損失函數,導致模型學習過程產生偏倚
- 損害模型的公平性與準確性
專欄 2. 偏見類型(續)
B. 社會性偏見
- 社會文化與社會經濟偏見
- 數據或算法中反映的社會或文化刻板印象或偏見
- 針對特定群體的歧視性或不公平結果
- 人工智能系統中固有的針對特定性別的偏見或刻板印象
- 基于性別的歧視性結果
- 人工智能系統中反映的針對特定種族或族裔的偏見
- 人工智能系統中固有的基于社會經濟地位的不平等或歧視
- 基于收入或教育水平的不公平結果
- 年齡與語言偏見
- 人工智能模型中包含基于年齡群體的歧視或成見
- 基于年齡的不準確預測或歧視性結果
- 對某些用戶因語言或方言偏見而產生的負面影響
- 未能體現語言多樣性,降低準確性
- 地理偏見
- 數據過度反映特定地區或地點
- 未能考慮區域特征,削弱模型的泛化能力
- 刻板印象、從眾與數據不平衡偏見
- 人工智能系統中反映的社會形成的刻板印象
- 強化歧視性結果或預測
- 傾向于遵循數據或決策中反映的多數人觀點或行為
- 難以做出獨立判斷,導致有偏結論
- 認知偏見
- 人工智能開發團隊或數據科學家固有的偏見
- 確認偏見
- 有選擇地解釋或收集信息/數據以證實現有信念或假設
- 難以做出客觀判斷,導致有偏結論
- 自動化偏見
- 人類過度信任自動化系統或人工智能判斷
- 用戶在未識別系統錯誤或局限性的情況下,盲目遵循錯誤決策
- 經濟偏見
- 人工智能公司為最大化利潤而主動操縱數據與算法
4.3 數據隱私
人工智能廣泛依賴個人數據,由此引發個人信息泄露與濫用的擔憂(European Union, 2016)。該領域亟需法律規制與倫理考量。AI 系統所收集與處理的數據可能包含敏感個人信息,若處理不當,可能違反《通用數據保護條例》(GDPR)等法律法規。去標識化或匿名化措施若實施不充分,可能導致個體身份被重新識別;而數據濫用或遭黑客攻擊等風險依然存在。這些問題不僅威脅個體隱私權,亦可能損害社會信任。
因此,對基于 AI 的政策決策,必須實施嚴格的個人信息保護管理與控制機制。政府與相關機構應建立法律與制度框架,在數據利用與隱私保護之間取得平衡。應落實諸如“數據最小化原則”、基于知情同意的數據采集、以及個人信息影響評估等方法。此外,提升公眾對個人信息保護的認知與教育亦至關重要。
4.4 問責性
隨著人工智能系統日益應用于高風險公共領域,問責性已成為可信賴 AI 的基石。然而,由于 AI 系統本身的復雜性,以及涉及開發者、數據提供方、平臺運營者、政府機構與終端用戶等多方利益相關者的生態環境,實現清晰的責任分配與追溯尤為困難。這些主體可能分別參與系統的研發、訓練、部署與監督環節,一旦產生不良結果,往往難以界定單一責任方。
這種復雜性催生了“分布式責任”(distributed responsibility)概念——即多個利益相關者在其全生命周期中共同塑造 AI 系統的行為(Floridi & Taddeo, 2016;日本政府, 2016;AI 戰略委員會, 2017)。若缺乏明確的治理結構,責任的分散可能導致“問責真空”——即無人對損害后果擔責,從而侵蝕公眾信任與法律確定性。
為應對這一挑戰,政府須確保將清晰的問責機制嵌入 AI 治理框架之中,具體包括:
- 明確界定各利益相關者的角色與義務;
- 制定文檔化與可追溯性標準;
- 設立具備審計與評估 AI 系統能力的監督機構。
此外,相關政策應支持救濟機制建設,使受 AI 決策影響的個體有權要求解釋、修正或尋求法律救濟。從設計之初即嵌入問責機制,不僅能有效降低風險,亦有助于提升 AI 賦能公共服務的透明度與公信力。
4.5 綜合性倫理
與可信賴人工智能相關的關切——包括公平性、可解釋性、隱私保護與問責性——可在人工智能倫理(AI ethics)這一統一框架下予以系統性回應。該概念廣泛涵蓋人工智能技術研發與應用過程中產生的各類倫理問題,而倫理考量對于在政策決策中有效利用人工智能至關重要(Moor, 2006)。
人工智能倫理為技術的負責任使用提供了基本原則:
第一,公平性必須得到保障,以確保人工智能系統不會對特定群體或個體造成不利影響。這包括盡可能減少數據偏見,并防止算法產生歧視性結果(Whittlestone et al., 2019)。
第二,應實現透明性與可解釋性,使人工智能的運行原理與決策過程能為人類所理解。通過清晰呈現 AI 判斷的依據,有助于政策制定者與公眾建立信任(Doshi-Velez & Kim, 2017)。
第三,須確保隱私與數據保護,防止個人信息被不當收集或濫用。這意味著在數據采集、處理、存儲及銷毀的全過程中,均須貫徹嚴格的安全保障與倫理標準(Taddeo & Floridi, 2018)。
第四,應落實人工智能系統的問責性,在發生錯誤或產生副作用時明確責任主體,確保能及時采取恰當的響應與糾正措施(Danks & London, 2017)。
實現負責任的人工智能應用,需審慎權衡各項倫理原則之間的張力。此類權衡之所以存在,是因為對某一原則的過度優化可能削弱另一原則的實現,因而需要精細的平衡。常見的權衡關系包括公平性、透明性、隱私與問責性之間的相互制約。表 2 展示了若干原則組合及其典型權衡關系(Sanderson, Douglas, & Lu, 2024)。
![]()
上述倫理原則也受到國際社會的高度重視。經濟合作與發展組織(OECD)在其《人工智能建議書》中提出了以人類為中心的價值觀、公平性、透明性與安全性等倫理原則(OECD, 2019b);歐盟(EU)則通過《人工智能法案》(AI Act)為高風險人工智能系統設定了嚴格的倫理標準與監管要求(European Commission, 2021)。
因此,將人工智能應用于治理的主體必須回應這些國際趨勢,并在國內人工智能政策中構建以倫理為核心的法律與制度安排。
基于倫理原則運用人工智能,對于提升公眾信任、實現可持續技術發展至關重要。為此,治理領域的人工智能使用者應制定倫理 AI 指南,并建立涵蓋開發者、政策制定者與公民的協同治理結構(Floridi & Cowls, 2019)。同時,應通過教育與公眾意識提升活動,加強對倫理議題的理解,并推動全社會形成可信賴人工智能應用的文化氛圍(Mittelstadt, 2019)。
- 應對人工智能挑戰的技術解決方案
盡管倫理問題對人工智能的可信賴應用構成挑戰,一系列技術解決方案已逐步涌現,有助于緩解相關風險。本節探討如何利用人工智能設計與技術方面的創新,提升透明度、減少偏見并加強數據保護。盡管這些創新無法完全消除所有風險,但它們為構建更可信賴的人工智能系統提供了有力工具。
5.1 可解釋性的技術路徑
可解釋人工智能(Explainable AI, XAI)指一系列旨在使機器學習(ML)模型決策過程對人類而言更加透明、可理解的技術與方法。這對于幫助用戶把握模型輸出背后的推理邏輯至關重要,尤其是在培育對人工智能系統的信任方面(Adadi & Berrada, 2018)。全球范圍內對可解釋性問題的應對是多維度的,既包括新方法論的研發,也涵蓋在各領域引入可解釋性框架的實踐。
5.1.1 基于模型設計的可解釋性
這類方法側重于設計本身具有內在透明性、或其架構便于解釋的模型:
- 線性模型(線性回歸與邏輯回歸):此類較簡單模型的決策過程易于追溯與理解,常用于透明性比預測性能更重要的場景。
- 決策樹:通過一系列“是/否”問題分解決策路徑,便于清晰追蹤推理流程。
- 基于規則的模型:采用預定義規則進行推理,其決策過程顯式且透明。
- 透明神經網絡:神經網絡架構的最新進展致力于構建可解釋的神經網絡,例如通過降低復雜度、對網絡層與參數施加約束等方式實現(Gilpin et al., 2018)。
- 因果推斷模型:此類模型顯式編碼變量間的因果關系,通過清晰展現輸出如何由輸入決定,使模型具備直觀性與透明性。
- 局部可解釋、模型無關的解釋方法(LIME):LIME 通過對輸入數據進行擾動,為特定實例生成黑箱模型預測的可解釋近似,識別對決策起關鍵作用的特征(Bellamy et al., 2019)。
- SHapley 加性解釋(SHAP):基于合作博弈論,為每個特征分配一個“重要性值”,反映其對模型預測的貢獻度;該方法適用于各類復雜模型(Lundberg & Lee, 2017)。
- 代理模型(Surrogate models):采用決策樹或線性模型等更簡單、可解釋的模型,對復雜模型的預測結果進行近似擬合,從而揭示后者如何做出決策(Molnar, 2020)。
- 反事實解釋(Counterfactual explanations):描述特定輸入在何種條件下會產生不同預測結果,從而提供可操作的洞見(Wachter, Mittelstadt, & Floridi, 2017)。
- 部分依賴圖(Partial Dependence Plots, PDPs):可視化工具,展示當其他特征保持不變時,僅改變一個或兩個特征時模型預測的變化趨勢,從而清晰呈現特征影響力(Friedman, 2001)。
5.1.2 針對特定模型的解釋方法
此類技術專為解釋某些復雜模型(尤其是神經網絡)而設計,廣泛應用于計算機視覺與自然語言處理任務:
- 顯著圖(Saliency maps):常用于圖像分類任務,通過高亮顯示輸入圖像中對模型決策起關鍵作用的像素或區域,直觀呈現模型關注點(Simonyan, Vedaldi, & Zisserman, 2013)。
- 注意力機制(Attention mechanisms):在自然語言處理的 Transformer 模型中尤為突出,可高亮顯示模型在預測時所倚重的輸入部分(如特定詞語或短語),從而明晰其內部推理邏輯(Vaswani et al., 2017)。
5.2 應對人工智能偏見與“客觀性幻覺”的工具與技術
應對人工智能偏見需將技術進步與倫理、監管框架協同推進。
5.2.1 偏見檢測與公平性審計
- 偏見度量與評估工具:采用差異影響分析(disparate impact analysis)、統計均等性(statistical parity)、均衡幾率(equalized odds)等指標評估模型中的偏見。這些工具可量化不同人口群體間模型結果的差異程度。
- 人工智能公平性工具包:如 IBM 的 AI Fairness 360(Bellamy et al., 2019)、Google 的 What-If Tool、Microsoft 的 Fairlearn(RBC Borealis, 2022)等開源工具,提供自動化偏見檢測與緩解技術。
- 自動化公平性審計:部署由人工智能驅動的審計系統,在人工智能全生命周期中持續評估模型公平性。
5.2.2 數據預處理技術
- 重采樣與重加權(Resampling and reweighting):通過過采樣代表性不足的群體或對樣本施加權重調整,平衡訓練數據分布,從而提升模型在不同群體上的公平表現(Hardt, Price, & Srebro, 2016)。
- 合成數據生成:利用生成對抗網絡(GANs)等生成模型創建具有代表性的合成數據,填補有偏數據集中的缺口,增強數據多樣性與公平性。
- 偏見感知的特征工程(Bias-aware feature engineering):識別并調整那些可能導致有偏決策的特征,使模型聚焦于真正相關的屬性,減少非預期偏見。
- 隱私保護的數據增強技術:如差分隱私(differential privacy)與聯邦學習(federated learning),可在保障敏感信息的前提下提升數據多樣性,協同促進公平性與隱私保護(Hardt, Price, & Srebro, 2016)。
5.2.3 提升公平性的算法調整
- 公平性約束優化(Fairness-constrained optimization):在機器學習模型的目標函數中引入公平性約束,確保模型在不同人口群體間實現均衡性能(Arya et al., 2019)。
- 對抗性去偏(Adversarial debiasing):通過對抗訓練促使模型學習無偏表征,有效削弱歧視性模式。
- 用于偏見識別的可解釋人工智能(XAI for bias identification):采用 SHAP、LIME 等可解釋機器學習方法,有助于理解并修正模型的偏見行為。
- 自適應學習模型(Adaptive learning models):引入強化學習等方法,在部署過程中動態檢測并調整偏見,實現公平性的持續提升(Arya et al., 2019)。
5.2.4 事后偏見緩解
- 輸出校準與調整(Output calibration and adjustment):在模型訓練完成后施加校正措施,例如平衡不同人口群體間的錯誤率,有助于修正有偏的結果(Hardt, Price, & Srebro, 2016)。
- 偏見校正神經網絡(Bias-correcting neural networks):開發具備自我監控與決策邊界動態調整能力的模型,可促進預測結果持續保持公平性(Bellamy et al., 2019)。
- 人在回路系統(Human-in-the-loop systems):將人類監督納入人工智能決策流程,可識別并修正自動化系統可能忽視的偏見。
5.3 隱私增強技術(Privacy-Enhancing Technologies, PETs)
數據去標識化、匿名化、加密及差分隱私等技術,是保障人工智能系統中個人數據安全的基礎性工具。它們可在最小化隱私侵犯風險的前提下,支持個人數據的有效利用(El Emam & Arbuckle, 2013)。
- 數據去標識化(Data deidentification):通過移除或轉換可識別個人身份的信息,保護個體隱私(European Union, 2016;Stallings, 2017)。該方法在降低隱私侵權風險的同時,仍保留數據分析與機器學習所需的必要信息。匿名化(Anonymization)則指徹底移除個人標識符,使個體無法被再識別;因此,其提供的保護水平僅滿足個人數據保護法規的基本要求(International Organization for Standardization, 2011)。
- 基礎加密(Basic encryption):將原始數據轉換為不可讀格式,確保數據在傳輸或存儲過程中即使被截獲,仍處于受保護狀態(Tavani, 2007)。
- 同態加密(Homomorphic encryption):支持直接對加密數據進行計算而無需解密,從而在保障機密性的同時,促進人工智能模型的訓練與推理(Gentry, 2009)。數據所有者可在本地執行加密操作,而服務器僅負責協調訓練流程;解密密鑰嚴格保留在數據所有方手中,顯著降低數據暴露風險。
- 安全多方計算(Secure Multiparty Computation, MPC):允許多方在不向彼此透露各自輸入的前提下,協同計算某一函數(Solove, 2006;Tavani, 2007)。其關鍵應用場景包括:
- 跨機構協作:多家醫院可聯合訓練疾病檢測模型;
- 銀行與金融領域:開展聯合欺詐分析,而無需披露具體交易細節;
- 實施優勢:近期通過預計算、批處理操作與硬件加速等優化手段,顯著提升了MPC的運行性能。
- 差分隱私(Differential privacy):通過添加統計噪聲,隱藏個體數據貢獻,同時保持整體數據效用(Abadi et al., 2016)。其特點包括:
- 由服務器集中添加噪聲,或由客戶端本地添加;
- 采用“矩會計法”(moments accountant)追蹤隱私預算消耗;
- 通過梯度裁剪(gradient clipping)與隨機擾動增強保護效果。
- 聯邦學習(Federated learning):允許在本地設備上進行模型訓練,僅將模型更新(而非原始數據)上傳至中央服務器(Rawls, 1971)。這種分布式范式極大降低了敏感信息暴露風險,在隱私保護與數據利用之間取得良好平衡(National Artificial Intelligence Initiative Office, 2021;Rawls, 1971)。聯邦學習在醫療健康、金融與智慧城市等敏感數據密集領域潛力巨大(Li et al., 2020)。例如,多家醫院可在不集中收集患者數據的前提下協同開發AI模型,從而提升診斷準確性并優化醫療服務(McMahan et al., 2017);該方法還可減輕通信網絡負載、節約數據傳輸成本(Yang et al., 2019)。各參與方僅使用本地設備或服務器上的數據訓練模型,并僅將所得模型參數上傳至中央服務器進行聚合(UNHCR, 2018)。由此,原始個人數據始終安全留存于各終端設備,極大降低了數據泄露或隱私侵權風險(Mantelero, 2018)。| 核心隱私特性:原始數據永不離開用戶設備;僅傳輸模型參數,且更新內容僅為聚合目的而臨時存儲。| 訓練流程:包括隨機客戶端選擇、模型參數廣播、客戶端本地計算、以及服務器端的安全參數聚合。| 增強型保護:融合多項互補技術:
- 添加經校準噪聲的差分隱私;
- 基于密碼學協議的安全聚合;
- 依托可信執行環境(Trusted Execution Environments, TEEs)的硬件級隔離。| 縱深隱私防護(Privacy in depth):整合多層次防護機制——包括本地數據駐留、差分隱私、安全聚合與TEE,這種多層防護策略對于醫療、金融等高敏感領域維系高標準隱私保障至關重要。
專欄 3. 韓國案例:韓國如何在保障隱私保護的前提下,依托可信賴人工智能應對新冠疫情
作為大韓民國領先的科學技術研究機構之一,韓國科學技術院(KIST)在新冠疫情期間承擔了疫情傳播趨勢預測與應對策略制定的重要任務(KIST, 2020)。KIST 整合大數據分析與人工智能建模,追蹤感染路徑并優化隔離措施:通過結合全國感染病例數據與通信數據,評估各地區風險等級,從而高效調配隔離資源;利用基于人工智能的預測模型模擬未來感染趨勢,為韓國政府動態調整社交距離政策提供科學依據。此外,KIST 還借助人工智能技術研發診斷試劑盒、推進治療研究,顯著提升了疫情防控實效,并推動了醫療領域的技術創新。
為確保數據使用的負責任性并加強個人信息管理,KIST 在實現科研目標的同時,采取了一系列隱私保護措施,嚴格遵循以下核心原則與方法:
- 個人數據的收集與使用:KIST 堅持“最小必要”原則,僅收集實現研究目標所必需的個人數據;在可行情況下,一律實施數據匿名化處理,以防隱私泄露;明確界定數據使用目的,避免過度或無關數據采集。
- 數據保護措施:綜合采用技術、管理與物理層面的多重防護手段,包括數據加密、訪問控制、安全意識培訓等,最大限度降低數據泄露與濫用風險。
- 數據主體權利保障:確保數據主體享有訪問權、更正權、刪除權及限制處理權,并建立相應程序以便利上述權利的行使。
- 數據保護影響評估(Data Protection Impact Assessment):在項目規劃階段即開展評估,識別潛在隱私風險,并落實相應緩解措施。
為平衡科研目標與隱私保護,KIST 綜合運用技術性與程序性保障機制,包括數據去標識化、匿名化以及嚴格的數據訪問控制。具體而言:
- 采用匿名化數據集,防止個體身份被重新識別,顯著降低隱私泄露風險;
- 對與研究目標無關的數據實施訪問限制,權限授予嚴格遵循“需知即可”(need-to-know)原則。
通過這一實踐過程積累的專業經驗,不僅推動了隱私增強技術的優化與完善,也為韓國更廣泛的人工智能治理戰略制定提供了重要參考與支撐。
- 人工智能治理
隨著人工智能技術日益深度嵌入公共與私人領域的決策過程,構建健全的治理框架已成為全球關注焦點。確保人工智能的安全、合乎倫理且高效運用,不僅需要技術層面的解決方案,更需全面的法規制定與制度性回應。本節考察全球層面在確立共同原則與規范方面的努力,以及各國因地制宜的治理實踐。
6.1 全球治理框架
伴隨人工智能研發的迅猛進展,國際組織與各國政府紛紛制定相關法規與政策(OECD, 2019b;Torrey & Goertzel, 2016),旨在推動人工智能的安全與合乎倫理的使用,并最終助力人類有效管控其潛在風險。眾多政府在結合本國具體國情制定治理框架的同時,亦積極開展國際合作,以推動形成基于共識的人工智能治理原則與標準。
6.1.1 聯合國
聯合國秘書長設立了“人工智能高級別咨詢機構”(High-level Advisory Body on Artificial Intelligence),以推動形成具有全球包容性的治理建議。該機構由來自全球各地的人工智能專家組成,于2024年9月完成并向聯合國大會提交題為《為人類治理人工智能》(Governing AI for Humanity)的報告,并同步通過關于可信賴人工智能的聯合國大會決議(United Nations, 2024)。該報告構建了一個涵蓋人工智能研發與應用全過程的綜合性治理框架,強調人工智能技術必須與人權、透明性及問責制相一致;倡導通過國際合作,建立全球統一的人工智能治理規范與標準,以統籌應對機遇與風險。聯合國的治理路徑聚焦于構建普惠、合乎倫理的人工智能體系,確保技術造福全人類,同時依托強有力的監管與政策舉措,防范潛在危害。
6.1.2 世界銀行
2024年,世界銀行發布了《人工智能治理的全球趨勢》(Global Trends in AI Governance)報告,旨在探究人工智能治理領域的新動態,并為政策制定者以合乎倫理、透明且可問責的方式開發與部署人工智能提供指導。該報告討論了各國可根據自身需求加以采納的四類治理工具,并結合實例分析其優劣(世界銀行集團,2024):
- 行業自律(Industry self-governance):如谷歌(Google)與微軟(Microsoft)等企業自行制定并采納自愿性商業倫理標準。此類做法雖可影響行業實踐,但缺乏強制執行力,且存在“倫理漂綠”(ethics-washing)——即以倫理承諾粉飾實質行為——的風險。
- 軟法(Soft law):指不具法律約束力的原則性聲明與技術標準。其優勢在于靈活性強,但往往未能清晰界定權利與責任。
- 監管沙盒(Regulatory sandboxes):通過構建受控環境,允許對創新型監管方案進行測試。然而,其運行與管理通常需要大量資源投入,成本高昂。
- 硬法(Hard law):指具有法律約束力的框架,例如《歐盟人工智能法案》(EU Artificial Intelligence Act)或各國立法。此類框架可提供一致性與法律確定性,但需結合本地實際情境進行適配,充分考量現有治理能力與資源條件。
此外,世界銀行還制定了《人工智能風險管理框架》(Artificial Intelligence Risk Management Framework),旨在系統性管控人工智能相關風險,并推動本組織內部負責任人工智能實踐的落地實施。
6.1.3 經濟合作與發展組織(OECD)
2019年,OECD發布了首個政府間人工智能標準——《OECD人工智能原則》(OECD AI Principles)。該原則旨在通過推動可信賴人工智能的負責任治理,在鼓勵創新的同時增進公眾信任,并確保對人權與民主價值觀的尊重。2024年更新后的《人工智能原則》由五項基于價值觀的原則與五項具體政策建議共同構成,為各國提供兼具實踐性與適應性的指導(OECD, 2024)(見表3)。
![]()
6.2 各國政府
表4對所選國家/地區的政府人工智能監管框架進行了比較性概述。各國政府均制定了相應戰略,以應對人工智能帶來的機遇與風險,體現出其在促進創新的同時,對倫理原則、公共安全與人權保障的重視與優先考量。
![]()
此外,各國政府還采取了法律與技術手段以規范個人數據保護,尤其聚焦于數據去標識化、匿名化、加密及隱私增強技術(PETs)的應用。表5所列各國均已構建相應框架,在數據利用與隱私保護之間尋求平衡,從而確保人工智能系統既能推動創新發展,又能贏得公眾信任。
![]()
- 人工智能與社會
人工智能技術的廣泛應用,不僅正在重塑政府與企業的運作方式,也深刻影響著個體參與社會的方式。盡管人工智能為提升公共服務響應能力、改善生活質量帶來了巨大機遇,但同時也引發了諸多社會關切。核心問題包括:數字鴻溝、自動化可能導致的就業崗位流失,以及弱勢群體被邊緣化的風險。本節探討人工智能普及帶來的社會影響,并分析如何確保其收益公平惠及全體人口各階層。
7.1 數字鴻溝與就業崗位流失
盡管人工智能為社會進步提供了巨大潛力,但也存在加劇既有不平等的顯著風險。數字鴻溝作為長期存在的挑戰,可能因人工智能而進一步加深——因為能否獲益于AI,高度依賴于技術可及性與數字素養水平。就業崗位流失是另一緊迫問題:由人工智能驅動的自動化可能使某些職業趨于過時(聯邦貿易委員會,2012)。
為緩解上述風險,政策制定者必須將數字包容性舉措置于優先地位,包括:擴大經濟、高質量互聯網的覆蓋范圍;推行數字素養教育項目;確保人工智能技術在設計階段即充分考慮無障礙與可及性。此外,健全的社會保障體系與再培訓計劃,可幫助勞動者適應不斷變化的就業市場,掌握在人工智能時代立足所需的新技能。
政府及公共政策設計者應積極推行數字包容政策,以確保所有公民均能平等受益于人工智能技術(日本政府,2015);強化社會保障網絡、提供職業技能再培訓,可有效緩解勞動者在職業轉型過程中的焦慮感(日本公正交易委員會,2016)。
7.2 通過人工智能提升公共服務響應能力
人工智能為增強公共服務的響應性與個性化提供了有力工具。通過分析海量數據,政府可更深入洞察公民的實際需求與偏好:AI驅動的智能聊天機器人可提供全天候服務支持;預測性分析則有助于預判并應對新興社會挑戰(Mehr, 2017;UNESCO, 2022)。
然而,至關重要的是,必須確保由人工智能驅動的公共服務具備合乎倫理、透明且可問責的特質。政府需制定清晰的人工智能應用準則,包括數據隱私保護措施與算法偏見緩解機制。此外,必須讓公眾實質性參與人工智能系統的設計與部署過程,以確保其需求與關切得到充分回應。
7.3 支持弱勢群體的政策舉措
人工智能政策的設計必須惠及全社會所有成員,包括脆弱與邊緣化群體。這要求政策制定者深入理解這些群體所面臨的具體挑戰,以及人工智能對其生活的潛在影響(OECD, 2018):
- 殘障人士可從AI賦能的輔助技術中獲益,但必須確保此類技術真正具備無障礙性與包容性;
- 老年人可借助人工智能維持獨立生活能力與生活質量,但可能需要額外支持以應對數字世界的復雜性;
- 低收入群體可能在就業流失與經濟不平等方面承受不成比例的沖擊,因而亟需為其提供適應人工智能時代所需的技能與機會(日本國家警察廳,2019)。
通過采取以人為本的人工智能治理路徑,政策制定者方能充分釋放其潛能,助力構建一個更加公平、繁榮的未來社會。
- 人工智能應用的自我評估
為支持可信賴人工智能的采納與應用,政府和組織評估自身的準備程度與實施績效至關重要。本節提供自我評估工具,可作為實用基準,用于追蹤進展、識別差距并相應調整策略。
8.1 背景
隨著人工智能技術持續演進,跨部門的政府與組織正日益探索其在提升公共治理與服務交付方面的潛力。部分機構可能已做好快速采用AI的準備,而另一些機構則需先彌補基礎性差距方可推進。影響這些決策的關鍵因素包括:技術專長的可獲得性、數據管理基礎設施的完備性,以及對新興技術相關法律與倫理框架的遵循程度。
人工智能應用的自我評估提供了一種結構化方法,用以評估準備情況,幫助識別可成長與改進的領域。通過聚焦于數據隱私、安全與技術基礎設施等關鍵方面,組織能夠更清晰地理解自身當前能力與存在的短板。這一過程有助于做出知情決策,并確保人工智能的采納是負責任、高效且符合相關政策與國際標準的。
鑒于各地區(特別是發展中國家)在準備程度上存在差異,自我評估是一種寶貴工具,可引導人工智能的審慎、高效采納。它賦能組織評估自身獨特需求,并據此量身定制人工智能戰略,促進知情決策,并確保與更廣泛的目標和優先事項保持一致。政府——尤其是發展中國家——可借助清單與工具包,獨立評估人工智能系統的適用性與準備就緒程度。此類工具使關鍵利益相關者與組織能夠主動審查人工智能技術的倫理、法律與技術層面,識別潛在風險,并制定成功實施的戰略(OECD, 2019b;Sheller et al., 2020)。使用清單預期帶來的益處包括:
- 前瞻性風險管理:在引入人工智能前識別潛在風險與問題,以便提前響應(Bonawitz et al., 2019)。
- 資源高效利用:識別準備度較低的領域,從而有效分配資源并設定優先級(Bughin et al., 2017)。
- 保障公眾信任:確保透明度與系統性評估,有助于建立公眾信任并提升人工智能政策的可接受度(European Commission, 2020)。
- 增強國際競爭力:通過與國際標準和最佳實踐接軌,提升在全球市場的競爭力(G20, 2019)。
8.2 人工智能準備度清單
人工智能系統本質上依賴數據驅動。從數據采集、處理到模型訓練與部署的整個生命周期中,數據的質量、完整性及倫理處理方式至關重要。“沒有數據,人工智能便無法存在;沒有受監管的數據,受監管的人工智能也無法存在”(Collibra, 2024)凸顯了數據的根本性作用。低質量數據會阻礙人工智能部署;即便最先進算法,若底層數據不佳,也會產生有缺陷的結果(Ataman, 2025)。合乎倫理的人工智能開發從根本上依賴于負責任的數據實踐。偏見、公平性、問責制與透明度等問題,與數據管理方式深度交織(Berryhill et al., 2019)。數據隱私與治理是實現更廣泛人工智能倫理原則的賦能要素:
- 公平與非歧視:用于訓練人工智能模型的有偏數據可能導致歧視性結果。倫理性的數據收集、細致的預處理及偏見審計——所有數據治理方面——對于緩解人工智能偏見、促進公平至關重要。專注于數據質量和偏見評估的清單項目直接支持此目標。
- 透明度與可解釋性:理解用于訓練人工智能模型的數據(其來源、特征、局限性)是解釋模型行為的前提條件(IBM, 2025)。清晰的數據治理政策有助于提升整體系統透明度(Collibra, 2024)。關于數據文檔與溯源性的清單項目在此至關重要。
- 問責制:健全的數據治理確立了數據處理的明確責任,這對人工智能系統的問責制至關重要(Collibra, 2024)。若人工智能系統產生不良后果,追溯數據血緣與處理步驟(通過良好治理確保)對于確定責任方至關重要。關于數據所有權與訪問控制的清單項目支持問責制。
- 安全性與穩健性:保護數據免受未授權訪問、篡改或濫用,是人工智能系統安全與穩健性的基礎。關于安全數據存儲與訪問控制的清單項目與此直接相關。為便利該流程,我們提供兩份清單(圖1與表6)。二者均旨在建立實現全面人工智能倫理所必需的數據處理關鍵標準:第一份側重于數據采集與處理,第二份側重于針對人工智能應用的具體數據隱私考量。
盡管人工智能倫理具有多面性,但清單聚焦于數據隱私與治理并非局限,而是一種戰略選擇。合乎倫理的數據管理是實現更廣泛人工智能倫理原則(如公平性、問責制與透明度)的首要基礎步驟。數據倫理不僅是眾多倫理關切之一,而是支撐所有其他人工智能倫理原則的基礎性要素。若無強有力的實踐(如隱私保護、安全、質量保證與偏見緩解),人工智能系統的整體可信度與倫理穩定性將受到損害。
此外,這種以數據為中心的方法與倫理數據處理(例如:同意、最小化、安全與偏見檢查)(National Assembly Research Service, 2021)與主要國際及全球公認標準相一致,這些標準旨在解決合乎倫理人工智能的基本前提;《歐盟人工智能法案》、《經合組織人工智能原則》及《聯合國教科文組織關于人工智能倫理的建議》均將數據治理與數據保護視為可信賴人工智能的核心要求。
這些工具可整合進一個面向發展中國家的綜合性人工智能應用評估工具包,包含以下功能:
- 自動化評估系統:一個在線平臺,輸入每項內容的答案后自動計算出準備度得分。
- 反饋與建議:根據評估結果提供缺陷反饋并提出改進建議。
- 資源與材料:提供與每一項內容相關的教育材料、指南與最佳實踐,以支持能力建設。
- 社區與協作網絡:包含促進經驗分享與與其他國家或組織協作的社區功能。
圖1展示了一份分步式清單,旨在幫助利益相關者評估將人工智能技術應用于數據采集與處理的適宜性。每一步均以二元問題(是/否)形式呈現,回答將決定下一步的相關環節,從而實現定制化與情境敏感型評估。為支持直觀導航,該清單使用顏色編碼區分流程的不同階段:
![]()
- 青色框:關鍵數據處理決策(例如:同意與法律依據)
- 藍色框:數據采集與可用性
- 黃色框:數據利用階段——再利用、共享、處置
- 棕色框:假名化與安全措施
該流程圖有助于識別在數據環境中部署人工智能技術前必須滿足的法律、倫理與操作條件。
8.2.1 人工智能數據采集與處理的決策流程
該流程始于審視所涉數據是否包含需用戶同意的信息,或是否屬于其他合法處理依據的范疇。若涉及個人信息,流程圖將進一步區分一般數據與敏感數據類型,并相應觸發標準同意告知程序,或要求單獨、明確的同意聲明。
一旦確立了合法基礎或取得有效同意,用戶需核實擬議的人工智能用途是否仍與原始數據采集目的保持一致。若目的已發生變更,清單將引導用戶:或為二次使用確立合法依據,或采用假名化技術以降低風險。
當采用假名化措施時,清單引入了額外保障要求:
- 數據必須通過經授權的第三方機構進行處理;
- 并須接受正式的安全評估,以核實已部署充分的保護措施。
若上述條件未滿足,則判定該人工智能應用不合規,流程即行中止,以防不當使用。
對于仍處于原始目的范圍內的數據,清單繼而評估其是否可被再利用或與他人共享。若允許,用戶將被引導核實安全處置的相關條件;對于尚無法立即處置的情形,則須確認是否存在法律或制度層面的數據留存要求。
僅當所有必要的法律、倫理與技術保障均已落實,該流程方視為完成。這一結構化流程確保人工智能技術的部署負責任且符合既定的治理標準。
8.3 人工智能數據隱私核查清單
為補充上述決策流程,表6提供了一份詳盡的核查清單,用于評估人工智能應用場景下的數據隱私準備情況。每項條目均源自數據保護核心原則,涵蓋合法采集與同意、數據留存、再利用及假名化等關鍵考量。
![]()
該清單按五大類組織:
- 直接從數據主體處采集數據
- 從第三方或公開來源采集數據
- 個人信息的使用與提供
- 數據留存與處置
- 假名化信息的處理
每項問題均采用保守的二元(是/否)格式作答,以反映數據隱私要求的嚴格性與不可妥協性。在諸如同意獲取、法律依據或數據處置等關鍵領域,部分落實即視為未達合規門檻。“否”的回答并非對失敗的判定,而是提示需采取后續行動以滿足最低標準。
當前清單的設計強調清晰性、易用性與法律可辯護性——尤其適用于處于早期階段或資源受限的環境。肯定回答(“是”)數量越多,表明與隱私原則的一致性越強,負責任部署人工智能的準備度也越高。該格式為實施者與政策制定者提供了實用工具,可用于識別差距、追蹤進展,并優先采取行動,以構建符合隱私規范、可信賴的人工智能系統。
8.4 使用清單時的注意事項
人工智能準備度與數據隱私清單為希望評估自身人工智能采納準備情況的組織提供了有益工具。通過系統性地評估數據基礎設施、倫理準則、安全考量等關鍵領域,這些清單提供了一種結構化方法,以支持更明智的決策制定。它們有助于組織認清自身優勢,識別需重點關注的薄弱環節,從而推動更具針對性與實效性的人工智能實施規劃。
然而,盡管清單提供了關鍵指導,應將其視為起點而非終極解決方案。人工智能的采納具有高度復雜性與情境依賴性,不同組織面臨的需求各異。清單雖可幫助凸顯核心考量因素,但各組織可能面臨獨特的挑戰或監管要求,需在清單所涵蓋內容之外采取定制化應對措施。因此,清單應與其他工具及專家評估結合使用,以確保實現全面且細致入微的治理路徑。
還需注意的是,這些清單倡導一種迭代式的反思與改進過程。隨著技術與監管環境持續演進,此類工具可協助組織定期回溯關鍵議題,并追蹤漸進式進展。盡管其本身并非完備的治理框架,但可作為識別差距、激發內部對話的切入點。若能定期使用,并與更廣泛的規劃工作協同推進,這些清單將有助于實現更明智、更負責任且更具情境敏感性的人工智能采納。
- 啟示與展望
人工智能在公共部門日益廣泛的應用,要求治理重點從理想化的原則宣示轉向切實可行的實踐行動。盡管全球性框架與倫理標準提供了寶貴指引,但將其轉化為契合具體情境、可操作的實踐措施,對許多政府而言仍是重大挑戰。本報告正是針對這一缺口,系統闡述了可信賴人工智能的核心維度,并提出了切實可行、門檻較低的實用工具:一份人工智能準備度決策流程圖與一份數據隱私核查清單。這些工具旨在協助各國政府與發展行動方在部署人工智能之前,通過結構化反思法律、倫理與組織層面的先決條件,評估其基礎性保障措施是否到位。
尤為重要的是,這些工具并非旨在作為指令性清單或僵化的審計標準,而是作為適應性輔助手段,以支持組織內部的自主決策。在此定位下,它們有助于推動公共部門機構在采納與應用可信賴人工智能過程中,做出更為審慎、有據可依的決策。通過將復雜的法律與倫理考量轉化為一組結構清晰的二元提示問題,這些工具鼓勵在調整仍具可行性且成本較低的早期階段即展開討論。若能審慎運用,并與更廣泛的治理流程協同配合,它們可幫助厘清各方職責、揭示潛在風險,并加強法律、技術與政策職能部門之間的協作。
可信賴人工智能的治理不應被視為一次性的合規任務,而必須被理解為一種持續的反思、協調與適應過程。隨著人工智能系統日益深度融入公共機構,推進其負責任應用不僅需要技術性保障措施,更需持之以恒的制度性投入。展望未來,或需進一步完善并本土化本報告所提出的工具,強化內部能力建設,并促進跨政府、跨部門的知識共享。盡管本報告所作貢獻范圍有限,但其目標在于切實支持各方持續努力,使人工智能的采納真正契合公共部門所秉持的問責、包容與透明等核心價值。
原文: https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.