<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      孟令宇、王迎春 :探索人工智能倫理審查新范式

      0
      分享至

      探索人工智能倫理審查新范式

      孟令宇 王迎春

      (上海人工智能實(shí)驗室治理研究中心)


      摘要:近年來,我國科技倫理審查工作日益受到重視。傳統(tǒng)的以生命醫(yī)學(xué)倫理為基礎(chǔ)的倫理審查范式,在應(yīng)用于人工智能等新興技術(shù)時面臨挑戰(zhàn)。文章分析了人工智能技術(shù)的特點(diǎn),闡述了其對傳統(tǒng)倫理審查模式的沖擊,并總結(jié)了業(yè)內(nèi)先行的實(shí)踐策略對審查范式創(chuàng)新的啟示。基于此,文章提出人工智能倫理審查范式創(chuàng)新需從理論、職能和方法三個維度進(jìn)行:在理論上,主張采用美德倫理學(xué),強(qiáng)調(diào)品德養(yǎng)成;在職能上,拓展倫理委員會的職責(zé);在方法上,發(fā)展技術(shù)工具實(shí)現(xiàn)技術(shù)與倫理的有機(jī)融合。

      關(guān)鍵詞:人工智能,倫理審查,倫理(審查)委員會,范式創(chuàng)新

      中圖分類號:B82文獻(xiàn)標(biāo)識碼:A

      DOI:10.19524/j.cnki.10-1009/g3.2023.04.097

      近年來,科技倫理的審查工作引起了國家的高度關(guān)注。2019年7月,中央全面深化改革委員會第九次會議上審議通過了《國家科技倫理委員會組建方案》。同年10月,國家倫理委員會正式成立,下設(shè)人工智能專委會。2021年12月《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見》在中央全面深化改革委員會第二十三次會議上審議通過,文中強(qiáng)調(diào)“開展科技活動應(yīng)進(jìn)行科技倫理風(fēng)險評估或?qū)彶椤I婕叭恕?shí)驗動物的科技活動,應(yīng)當(dāng)按規(guī)定由本單位科技倫理(審查)委員會審查批準(zhǔn),不具備設(shè)立科技倫理(審查)委員會條件的單位,應(yīng)委托其他單位科技倫理(審查)委員會開展審查。”2022年9月初,深圳市出臺國內(nèi)首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》,該條例規(guī)定,市政府應(yīng)建立人工智能倫理委員會,履行各種職責(zé),如研究和制定人工智能領(lǐng)域的倫理和安全標(biāo)準(zhǔn),并發(fā)布人工智能倫理和安全實(shí)踐指南。9月底,上海市發(fā)布人工智能省級法規(guī)《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,其中提出要順應(yīng)人工智能快速迭代的特點(diǎn),設(shè)立人工智能倫理專家委員會并履行一系列的人工智能倫理治理相關(guān)職責(zé)。2023年2月,《2023上海人工智能安全倫理倡議書》發(fā)布,第一條就提出要建設(shè)上海市人工智能專家倫理委員會。9月7日,《科技倫理審查辦法(試行)》正式發(fā)布,其中特別規(guī)定“從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。”可以看出,探索人工智能倫理審查新范式已成為一個亟待解決的重點(diǎn)問題。需要強(qiáng)調(diào)的是,人工智能倫理審查需要范式創(chuàng)新,即從理論框架到方法模型全方位創(chuàng)新而非僅僅改變方式方法,以及一些具體的操作手段。人工智能倫理審查范式創(chuàng)新應(yīng)該保留傳統(tǒng)范式的積極因素,并在此基礎(chǔ)上進(jìn)行適應(yīng)人工智能技術(shù)特點(diǎn)的創(chuàng)新。

      一、傳統(tǒng)的倫理審查范式

      考慮到科技發(fā)展的風(fēng)險性,對其進(jìn)行倫理規(guī)范勢在必行。然而,倫理規(guī)范需要強(qiáng)有力的制度支持才能有效運(yùn)作。倫理審查是倫理規(guī)范作用于科技研究的重要制度保證。

      倫理規(guī)范的制度化構(gòu)成可以從兩條路徑追溯:其一可以追溯到早期的行業(yè)工會,主要表現(xiàn)為行業(yè)準(zhǔn)則和行業(yè)標(biāo)準(zhǔn)。1856年,德國工程師協(xié)會成立,它致力于通過技術(shù)手段的開發(fā)和有效應(yīng)用改進(jìn)人類的生存條件,承擔(dān)工程師的培養(yǎng)、繼續(xù)教育以及給政府、議會和社會提供咨詢等方面的工作 [1]。1866年,蒸汽鍋爐操作員在曼海姆成立了德國蒸汽鍋爐監(jiān)督協(xié)會,旨在為生產(chǎn)設(shè)備提供安全保障,也就是如今大名鼎鼎的德國技術(shù)監(jiān)督協(xié)會(TüV)的前身。1950年德國工程師協(xié)會制定了《工程師的聲明》,并于2002年在此基礎(chǔ)上制定實(shí)施了《工程職業(yè)的倫理守則》。這一守則被譽(yù)為“德國技術(shù)倫理學(xué)制度化的最好的闡釋”。可以看出,德國對于科研活動的倫理向度的制度化管理前后歷經(jīng)150余年,最終形成了一份良好的倫理守則。但這與如今常見的倫理審查存在一定差異,缺少完整的制度,更多的是類似行業(yè)標(biāo)準(zhǔn)。

      其二可以追溯到生命醫(yī)學(xué)倫理,也就是現(xiàn)在普遍施行的科技倫理審查機(jī)制。生命醫(yī)學(xué)倫理最早可以追溯到《希波克拉底誓言》,那時的生命醫(yī)學(xué)倫理也是一種職業(yè)倫理。但在此后的近2000年中生命倫理的制度化進(jìn)程幾乎是停滯的。這種情況直至20世紀(jì)40年代開始發(fā)生轉(zhuǎn)變。在二戰(zhàn)結(jié)束后的紐倫堡審判中,納粹德國的醫(yī)生和生命科學(xué)家被指控對集中營中的戰(zhàn)俘進(jìn)行了慘無人道的人體實(shí)驗,為了杜絕此類暴行再次發(fā)生,《紐倫堡法典》誕生了。《紐倫堡法典》規(guī)定了人體實(shí)驗的基本原則,作為國際上進(jìn)行人體實(shí)驗的行為規(guī)范流傳至今。在《紐倫堡法典》中人類的核心價值得到了彰顯,對人權(quán)的保護(hù)更是其重中之重。《紐倫堡法典》在頒布之后不久,就被51個國家承認(rèn)接受,并在之后的十幾至二十年間逐漸成為許多專業(yè)機(jī)構(gòu)和政府條例的范本,其精神為《世界人權(quán)宣言》所吸收。1964年,世界醫(yī)學(xué)協(xié)會發(fā)表《赫爾辛基宣言》,作為《紐倫堡法典》的補(bǔ)充,進(jìn)一步規(guī)范了生命科學(xué)的發(fā)展。值得一提的是,該宣言在之后的世界醫(yī)學(xué)協(xié)會聯(lián)合大會上進(jìn)行過多次修訂,召開倫理委員會批準(zhǔn)人體實(shí)驗研究方案就是在《赫爾辛基宣言》的第一次修訂中寫入的,也是倫理審查制度首次被寫入國際指南 [2]。自此,生命倫理學(xué)以及倫理審查制度進(jìn)入了高速發(fā)展期。

      20世紀(jì)中后葉,生物醫(yī)學(xué)領(lǐng)域被爆出了一系列丑聞,如柳溪乙肝試驗、塔斯基吉梅毒試驗等,引起了公眾對于醫(yī)療試驗的恐慌。在這種情況下,為了滿足公眾的呼吁,消除恐慌,美國政府成立了保護(hù)參加生物醫(yī)學(xué)和行為學(xué)研究人體實(shí)驗對象的全國委員會。該委員會試圖對如何保護(hù)生物醫(yī)學(xué)及行為研究中的人體受試者提出切實(shí)可行的建議,明確適用所有人體研究的基本倫理原則,以及如何在研究中貫徹執(zhí)行。1978年該協(xié)會發(fā)布了《貝爾蒙報告》,闡述了人體研究的倫理原則、醫(yī)療與醫(yī)學(xué)研究的界限等問題。由世界衛(wèi)生組織設(shè)立的國際醫(yī)學(xué)科學(xué)組織理事會(CIOMS)制定的涉及人類受試者的生物醫(yī)學(xué)研究國際倫理指南也規(guī)定了倫理委員會的要求。CIOMS指南于1993年首次發(fā)布,雖沒有法律效力,但它們在起草國家倫理委員會法規(guī)方面具有影響力。

      《紐倫堡法典》《赫爾辛基宣言》《貝爾蒙報告》等文件奠定了生命醫(yī)學(xué)倫理審查的原則基礎(chǔ),這些文件的內(nèi)容后來被匯總成為生命醫(yī)學(xué)倫理學(xué)的四大原則,即尊重自主原則、不傷害原則、有利原則和公正原則。生命醫(yī)學(xué)倫理學(xué)四大原則如今已經(jīng)超出生命醫(yī)學(xué)研究的范疇而成為幾乎所有涉及人類受試者(參與者)的研究的倫理審查的基本原則。我國首部倫理審查體系的認(rèn)證標(biāo)準(zhǔn)是2014年12月批準(zhǔn)的《涉及人的生物醫(yī)學(xué)研究倫理審查體系要求》,其中的審查規(guī)定就體現(xiàn)了生命醫(yī)學(xué)倫理學(xué)四大原則的精神。

      二、大模型時代人工智能倫理審查的新挑戰(zhàn)

      對于現(xiàn)行的倫理審查制度有很多批評的聲音,尤其是社會科學(xué)學(xué)者對此尤為不滿。來自新西蘭的兩位社會學(xué)學(xué)者提出“基于社群的參與式研究”(Community-Based Participatory Research,CBPR)作為一種新的研究范式已經(jīng)在多個領(lǐng)域推廣,然而這種研究范式卻幾乎不具備得到以新西蘭倫理委員會(NZEC)為代表的主流倫理審查委員會認(rèn)可的能力 [3]。英國學(xué)者也指出對于社會科學(xué)方法的非臨床研究來說,當(dāng)下的倫理審查制度提出了錯誤的問題,并將研究置于錯誤的標(biāo)準(zhǔn) [4]。“研究倫理委員會通常熟悉的方法基準(zhǔn)以及構(gòu)成質(zhì)量評估基礎(chǔ)的方法基準(zhǔn)不符合許多形式的定性調(diào)查的目的和目標(biāo),也不符合其描述社會過程/機(jī)制和使社會實(shí)踐的復(fù)雜性可見的更繁復(fù)的目標(biāo)。”[5]作為批判性研究倫理審查制度的專著,《道德誘惑》提出當(dāng)下的倫理審查制度是基于生物醫(yī)學(xué)對研究的理解 [6]。在倫理審查的壓力下,社會科學(xué)方法的多樣性和豐富性正在下降[7]。

      所有這些對倫理審查制度的批判說明了一個早在20世紀(jì)就曾被指出過的問題,即任何倫理準(zhǔn)則總是離不開其背后的歷史背景和學(xué)科背景的 [8]。與社會科學(xué)的情況類似,人工智能的倫理審查與生命科學(xué)的倫理審查有一定的相似性,但也不盡相同,這主要是人工智能技術(shù)的特殊性造成的。正如寶拉·波登頓(Paula Boddington)所說“人工智能提出的一些問題與其他問題是共同的……但是,考慮人工智能中是否存在任何獨(dú)特的道德問題也是很重要的,因為如果我們僅僅面對一系列非常廣泛的道德問題,而這些問題沒有關(guān)注人工智能的具體情況,我們最終可能會得到對具體情況缺乏足夠把握以產(chǎn)生實(shí)質(zhì)性影響的準(zhǔn)則和原則。”[9]一些學(xué)者認(rèn)為生物醫(yī)學(xué)倫理仍然提供了有價值的起點(diǎn),只需要進(jìn)行輕微調(diào)整或重新解釋即可延伸到人工智能領(lǐng)域[10]。但是,生命科學(xué)和人工智能之間存在的重大差異,引發(fā)我們對現(xiàn)有倫理框架適用性的質(zhì)疑[11]。湯姆·比徹姆(Tom Beauchamp)和詹姆斯·邱卓思(James Childress)提出的四原則倫理學(xué)圍繞人的生命權(quán)利而設(shè)計[12],而脫離人類主觀偏見與死亡風(fēng)險的智能體需要全新的倫理規(guī)范體系。在簡單地將生物醫(yī)學(xué)倫理原則應(yīng)用到人工智能領(lǐng)域之前,倫理學(xué)家有必要仔細(xì)重新審視人工智能中諸如黑箱、復(fù)雜因果關(guān)系以及公平性等核心概念。

      傳統(tǒng)的生命醫(yī)學(xué)倫理審查主要關(guān)注的是對生命的尊重,包括保護(hù)個人隱私,保證知情同意,以及避免對個體造成傷害等。然而,這種倫理審查的框架在面對人工智能可能會遇到一些問題和挑戰(zhàn)。隨著ChatGPT的發(fā)布,人工智能研究已經(jīng)步入大模型時代,這將進(jìn)一步加深人工智能研究與傳統(tǒng)倫理審查之間的鴻溝。

      首先,最重要的是,大模型的黑箱性質(zhì),增加了審查其決策過程及結(jié)果的難度,這與生命醫(yī)學(xué)倫理強(qiáng)調(diào)的程序透明度存在張力。黑箱是當(dāng)前主流的人工智能技術(shù)——深度學(xué)習(xí)的本質(zhì)特征,這意味著人類無法調(diào)查算法,也就是說,它們是認(rèn)知不透明的系統(tǒng),任何人類或人類群體都無法仔細(xì)檢查以確定其內(nèi)部狀態(tài) [13]。通常,黑箱算法不遵循眾所周知的規(guī)則(例如,布爾決策規(guī)則算法),但可以用標(biāo)記數(shù)據(jù)“訓(xùn)練”以識別數(shù)據(jù)中的模式或相關(guān)性,從而可以對新數(shù)據(jù)進(jìn)行分類。即使我們聲稱理解了控制算法的底層標(biāo)簽和數(shù)學(xué)原理,但仍然很復(fù)雜,甚至不可能聲稱對此類系統(tǒng)的內(nèi)部工作有深入了解 [14]。

      因此,與生命醫(yī)學(xué)基于現(xiàn)實(shí)的因果性不同,人工智能是基于概率的相關(guān)性。換句話說,藥物或手術(shù)對人體的干預(yù)是可預(yù)期、可觀察和可解釋的,而深度學(xué)習(xí)對數(shù)據(jù)的訓(xùn)練僅僅在基本架構(gòu)的邏輯關(guān)系上是存在相關(guān)關(guān)系的,很難以一種日常使用的因果關(guān)系去解釋。如果它出現(xiàn)了錯誤,這個錯誤不僅可能會非常離譜,而且可能根本無法找到導(dǎo)致這一錯誤的原因。卡內(nèi)基梅隆大學(xué)是人工智能領(lǐng)域的傳統(tǒng)強(qiáng)校,在教師之間的非正式調(diào)查中,絕大多數(shù)人表示,不使用深度學(xué)習(xí)等人工智能方法的首要原因是他們不知道如何解釋結(jié)果 [15]。當(dāng)下人工智能的評測方法主要是通過評測數(shù)據(jù)集來進(jìn)行。這些評測數(shù)據(jù)集通常包含了針對特定任務(wù)采集并標(biāo)注的輸入-輸出樣例對[16]。研究人員會訓(xùn)練出滿足特定任務(wù)要求的AI系統(tǒng),然后利用評測數(shù)據(jù)集對系統(tǒng)性能進(jìn)行量化評估[17]。目前常見的評測數(shù)據(jù)集包括圖像分類、語音識別、機(jī)器翻譯等領(lǐng)域的基準(zhǔn)測試集。這些數(shù)據(jù)集的質(zhì)量直接影響了對AI系統(tǒng)能力的評判[18]。近年來,隨著技術(shù)的進(jìn)步,研究者也越來越重視評測數(shù)據(jù)集的多樣性[19]、案例覆蓋范圍[20]等方面的考量。一些競賽平臺也會圍繞特定任務(wù)發(fā)布新的評測基準(zhǔn)和排行榜(Leaderboard)[21]。總體來說,評測數(shù)據(jù)集仍是當(dāng)前主流的AI系統(tǒng)評估方式,但其本身也面臨一些挑戰(zhàn),如測試用例的代表性[22]、人工標(biāo)注帶來的偏差[23]等。

      這些挑戰(zhàn)導(dǎo)致傳統(tǒng)的倫理審查范式對于人工智能不適用,因為研究者既不可能基于確定的因果性完全預(yù)測人工智能技術(shù)的風(fēng)險,也不可能在出現(xiàn)風(fēng)險后以標(biāo)準(zhǔn)的流程來修正或解決,只能根據(jù)研究者的個人經(jīng)驗來調(diào)整算法結(jié)構(gòu)以期輸出合適的結(jié)果。因此,與生命醫(yī)學(xué)倫理審查更注重事前審查不同,對于人工智能來說事中以及事后審查往往更加重要,設(shè)立敏捷的事中和事后審查是確保人工智能健康發(fā)展的必由之路。

      其次,在傳統(tǒng)的生命醫(yī)學(xué)倫理審查中,當(dāng)研究結(jié)果產(chǎn)生負(fù)面影響時,責(zé)任通常歸屬于研究者。然而,在AI系統(tǒng)中,當(dāng)系統(tǒng)做出錯誤的決策或者造成傷害時,責(zé)任歸屬可能會變得模糊。例如,如果AI系統(tǒng)被用來生成虛假的新聞或者惡意的信息,那么責(zé)任應(yīng)該歸屬于誰?是設(shè)計AI系統(tǒng)的公司,還是使用AI系統(tǒng)的人,或者是提供訓(xùn)練數(shù)據(jù)的人?這被稱為“責(zé)任空白”問題,安德烈亞斯·馬蒂亞斯(Andreas Matthias)提出,“傳統(tǒng)上,機(jī)器的制造商/操作員(在道德和法律上)應(yīng)對其操作的后果負(fù)責(zé)。基于神經(jīng)網(wǎng)絡(luò)、遺傳算法和代理架構(gòu)的自主學(xué)習(xí)機(jī)器創(chuàng)造了一種新的局面,在這種情況下,機(jī)器的制造商/操作員原則上不再能夠預(yù)測未來的機(jī)器行為,因此無法對其承擔(dān)道德責(zé)任。社會必須決定是不再使用這種機(jī)器(這不是一個現(xiàn)實(shí)的選擇),還是面臨責(zé)任鴻溝,這是傳統(tǒng)的責(zé)任歸屬觀念無法彌補(bǔ)的。”[24]隨著人工智能技術(shù)的應(yīng)用場景不斷增加,在多個場景下都會可預(yù)見地面臨這一問題,例如自動駕駛汽車版本的電車難題。

      第三,在生命醫(yī)學(xué)研究中,研究者需要確保他們的研究方法公平,不會對任何群體產(chǎn)生歧視。然而,人工智能技術(shù)是一項賦能技術(shù),它能夠增強(qiáng)完成任務(wù)的速度和效率、擴(kuò)展原領(lǐng)域(技術(shù))的影響力和范圍,使得原來被隱藏的倫理問題再次引起人們的關(guān)注。最具代表性的是算法歧視問題。算法歧視本質(zhì)上放大和強(qiáng)化了現(xiàn)有的、有意或無意的社會歧視。算法通過“貼標(biāo)簽”的運(yùn)算原理,不可避免地將顯性或隱性的偏見嵌入其中,從而放大了現(xiàn)有的偏見。開發(fā)者在認(rèn)識和解釋世界的過程中所帶有的偏見,也會影響到算法的設(shè)計。日常生活中的數(shù)據(jù)往往包含人類社會固有的隱性偏見,這些偏見在算法訓(xùn)練過程中被植入,其中許多消極的偏見通過決策算法轉(zhuǎn)化為對人的算法歧視 [25]。

      此外,知情同意是傳統(tǒng)生命醫(yī)學(xué)倫理審查中的核心原則之一,它要求參與研究的個體必須在事先被充分告知研究目的、程序、風(fēng)險等信息的基礎(chǔ)上自愿同意參與。但是,大模型時代人工智能訓(xùn)練的數(shù)據(jù)來源往往廣泛地散落在互聯(lián)網(wǎng)各處,由于數(shù)據(jù)的來源廣泛且復(fù)雜,獲取每一個數(shù)據(jù)生成者的知情同意幾乎是不可能的。并且,每一個數(shù)據(jù)對模型和數(shù)據(jù)主體產(chǎn)生的具體影響也是不可追溯的,如果遵循傳統(tǒng)的知情同意審查模式,大模型發(fā)展將寸步難行。因此,亟須進(jìn)行人工智能倫理審查范式革新,提供在大模型訓(xùn)練中合理應(yīng)用知情同意原則,保護(hù)數(shù)據(jù)提供者權(quán)益的新制度。

      與傳統(tǒng)生命醫(yī)學(xué)研究不同,大規(guī)模的人工智能模型訓(xùn)練往往需要大量用戶數(shù)據(jù),這使得數(shù)據(jù)隱私保護(hù)面臨巨大挑戰(zhàn)。大模型訓(xùn)練使用的數(shù)據(jù)可復(fù)制性強(qiáng)、傳播范圍廣,一旦泄露,造成的隱私危害將遠(yuǎn)超生物樣本。且數(shù)據(jù)加密也面臨被破解的風(fēng)險。可以說,依靠傳統(tǒng)生命醫(yī)學(xué)倫理審查的方法很難有效地保護(hù)大模型訓(xùn)練中使用數(shù)據(jù)的隱私安全。這需要我們構(gòu)建新的倫理規(guī)范,在算法設(shè)計、數(shù)據(jù)采集、模型訓(xùn)練等各個階段強(qiáng)化對個人隱私的保護(hù),實(shí)現(xiàn)人工智能技術(shù)的倫理化發(fā)展。

      三、人工智能倫理審查的實(shí)踐探索與啟示

      基于人工智能技術(shù)的特殊屬性,傳統(tǒng)的倫理審查模式在此領(lǐng)域中并不適用,人工智能的倫理審查面臨種種挑戰(zhàn),但保障人工智能和倫理健康發(fā)展已經(jīng)成為全世界共識。如何推動人工智能倫理從原則到落地已成為世界范圍內(nèi)的重要議題。如果人工智能倫理僅停留在理論和原則層面將不可避免被詬病為“倫理洗藍(lán)”。因此各方正積極探索一種新的、符合人工智能技術(shù)發(fā)展趨勢的倫理審查方式。如何以制度形式保障人工智能的合倫理性將是倫理審查范式革新的核心議題。國內(nèi)外如OpenAI、谷歌、微軟和商湯等代表性大公司,由于其非政府機(jī)構(gòu)的主體性質(zhì)優(yōu)勢,成功地率先推出了一些創(chuàng)新性的審查實(shí)踐,選擇了一條“原則引領(lǐng),流程監(jiān)管,技術(shù)工具輔助”的道路,這為人工智能倫理審查范式創(chuàng)新提供了重要的實(shí)踐案例參考。

      目前克服理論和實(shí)踐之間的差距主要有三種方法,分別是倫理嵌入、倫理對齊和價值敏感設(shè)計[26]。這里所說的倫理嵌入不是理論上的倫理嵌入,而是一種實(shí)踐向的方法,由斯圖爾特·麥克倫南(Stuart McLennan)等人提出,指的是倫理學(xué)家和開發(fā)者從開發(fā)伊始就通過迭代和持續(xù)的過程共同解決倫理問題 [27]。這種方法通過讓倫理學(xué)專家加入研發(fā)團(tuán)隊,融入具體設(shè)計過程,對方案進(jìn)行持續(xù)倫理評估。同時,通過為工程師提供道德培訓(xùn),將道德納入人工智能工程過程中。谷歌、微軟等公司的實(shí)踐探索在一定意義上就屬于倫理嵌入。谷歌內(nèi)部對于AI倫理審查構(gòu)建了一個三層的治理組織架構(gòu),第一層是產(chǎn)品團(tuán)隊本身,他們提供符合AI原則的深層次功能專業(yè)知識;第二層是一組專門的審查機(jī)構(gòu)和專家小組,鼓勵所有谷歌員工在整個項目開發(fā)生命周期中參與AI原則審查過程,審查所有項目的潛在隱私問題,還包括為特定產(chǎn)品領(lǐng)域量身定制的審查委員會;第三層是先進(jìn)技術(shù)審查委員會(ATRC),這是一個由高級產(chǎn)品、研究和業(yè)務(wù)主管組成的輪值委員會,處理升級和最復(fù)雜的先例案例。在整個體系中,谷歌使用類似“判例法”的方式,作為審查標(biāo)準(zhǔn)的是谷歌人工智能原則,包括七條積極的原則和四條消極的原則 ①。此外,谷歌還開發(fā)了很多幫助倫理審查的技術(shù)性工具,例如Responsible AI with TensorFlow。與谷歌類似,微軟的人工智能倫理審查所依托的組織是以太委員會(Aether)、負(fù)責(zé)任 AI 辦公室 (ORA) 和負(fù)責(zé)任AI戰(zhàn)略工程管理團(tuán)隊 (RAISE)。Aether幫助微軟的高級領(lǐng)導(dǎo)層就負(fù)責(zé)任的人工智能問題、技術(shù)、流程和最佳實(shí)踐作出決策。ORA通過推進(jìn)微軟的治理和公共政策工作,為負(fù)責(zé)任的 AI 制定公司范圍內(nèi)的規(guī)則。RAISE定義并執(zhí)行跨工程團(tuán)隊的負(fù)責(zé)任 AI 的工具和系統(tǒng)策略,他們正在開發(fā)一組基于 Azure ML 構(gòu)建的工具和系統(tǒng)。

      倫理嵌入的優(yōu)勢是能夠?qū)惱硪?guī)范嵌入人工智能產(chǎn)品開發(fā)的全過程,能及時發(fā)現(xiàn)具體倫理問題,但缺點(diǎn)是可能受專家個人觀點(diǎn)和偏見影響較大,以及責(zé)任模糊等問題。技術(shù)發(fā)展過程中的情境倫理問題決定了這種嵌入式倫理方法所指的具體實(shí)踐的資格。倫理嵌入的方法指出,創(chuàng)新和探索性實(shí)踐總是會引發(fā)倫理問題,并且在具體的工程過程中會出現(xiàn)新的倫理問題,即在人工智能技術(shù)的發(fā)展過程中總會有特定情境的倫理問題,這啟示我們在人工智能倫理審查范式創(chuàng)新中可以引入一個多主體參與的內(nèi)部倫理審查機(jī)制,通過讓倫理學(xué)專家參與研究過程,與研究人員保持交流、增進(jìn)了解,進(jìn)行倫理評估。

      倫理對齊指在人工智能系統(tǒng)的設(shè)計和運(yùn)作中,使其行為與人類共同的倫理價值觀達(dá)成一致。其核心目標(biāo)是賦予AI系統(tǒng)對倫理規(guī)范的認(rèn)知和遵循能力,防止出現(xiàn)違反倫理的決策和行為[28]。IEEE就倫理對齊設(shè)計提出了詳盡指南,強(qiáng)調(diào)需要考量透明度、可解釋性、公平性等方面,并提供可驗證的倫理保證[29]。與此同時,OpenAI也將價值對齊視為其安全AI研究的重要方面,通過強(qiáng)化學(xué)習(xí)等方式使AI內(nèi)在動機(jī)符合人類共同利益[30]。實(shí)現(xiàn)倫理對齊的主要技術(shù)路線包括:OpenAI使用的基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),通過獎勵模型使模型輸出結(jié)果與人類期待相符,使模型在實(shí)際任務(wù)中更加實(shí)用和安全 [31]。Anthropic使用的來自人工智能反饋的強(qiáng)化學(xué)習(xí)(RLAIF),利用AI的反饋?zhàn)鳛楠剟钚盘杹碛?xùn)練偏好模型,能夠更精確地控制模型的行為,減少對人類標(biāo)簽的依賴,并使模型能夠更好地處理有害的查詢 [32]。這些方法都有各自的側(cè)重點(diǎn),但當(dāng)前還停留在理論和試驗階段,無論是OpenAI還是Anthropic都承認(rèn)這是一種技術(shù)手段,并非最終的解決方案。盡管如此,倫理對齊還是對人工智能倫理審查范式創(chuàng)新提供了重要參考,那就是使用技術(shù)手段和技術(shù)工具來輔助倫理審查。

      價值敏感設(shè)計是一種在技術(shù)設(shè)計過程中主動考量倫理價值的方法論[33]。它以“設(shè)計就是價值的實(shí)現(xiàn)”為核心理念,通過概念分析、參與式設(shè)計和技術(shù)實(shí)證相結(jié)合的方式,在功能性、可用性的同時兼顧倫理性[34]。第一步概念分析,通過哲學(xué)反思厘清復(fù)雜的倫理價值觀念;第二步參與式設(shè)計,讓相關(guān)利益方參與技術(shù)設(shè)計過程,表達(dá)其價值偏好;第三步技術(shù)實(shí)證,通過原型設(shè)計和用戶測試驗證設(shè)計方案。這種方法論的優(yōu)點(diǎn)在于從一開始就考量倫理因素,融合多學(xué)科視角。但其缺點(diǎn)也明顯,如難以在復(fù)雜利益關(guān)系中達(dá)成價值共識,過于理想化而難落地等。這一方法啟示我們在創(chuàng)新人工智能倫理審查范式時,必須充分考慮這一跨文化價值沖突的現(xiàn)實(shí),采取開放和包容的方式吸收不同觀點(diǎn),以避免單一標(biāo)準(zhǔn)導(dǎo)致的道德風(fēng)險。

      值得說明的是,谷歌曾在2019年3月26日短暫地成立過一個先進(jìn)技術(shù)外部咨詢委員會(ATEAC)用以應(yīng)對人工智能倫理風(fēng)險問題。然而,這個委員會的壽命僅僅只有9天,在內(nèi)外部的雙重壓力下被迫解散。這是一個失敗的案例,但同時這個過程也發(fā)人深省。這一事件引起了廣泛的關(guān)注,《麻省理工科技評論》組織專家對此事撰文探討,其中加州理工大學(xué)倫理與新興科學(xué)小組主任帕特里克·林(Patrick Lin)認(rèn)為:“如果對獲得道德指導(dǎo)有真正的興趣,那么你需要真正的倫理學(xué)家——在理論和應(yīng)用倫理方面接受過專業(yè)培訓(xùn)的專家。否則,這將是對專業(yè)價值的拒絕。想象一下,如果公司想召集一個 AI 法律委員會,但其中只有一名律師(就像 AI 倫理委員會 v1.0 中只有一名哲學(xué)家一樣),這將是引發(fā)嚴(yán)重危險的信號。”[35]圣克拉拉大學(xué)互聯(lián)網(wǎng)道德項目主任伊琳娜·賴庫(Irina Raicu)也提出:“一年四次會議不太可能產(chǎn)生影響,我們需要敏捷的道德投入”[35]。可以看出,人們期待人工智能的倫理審查來自真正倫理學(xué)家的敏捷治理。

      各國政府也高度重視人工智能的倫理安全問題,陸續(xù)出臺法律法規(guī)應(yīng)對人工智能的倫理安全挑戰(zhàn),緊抓戰(zhàn)略發(fā)展機(jī)遇。2023年6月14日歐洲議會通過了《人工智能法案》,要求對人工智能進(jìn)行風(fēng)險評估。10月30日,美國總統(tǒng)拜登簽署通過《安全、可靠和可信賴的開發(fā)和使用人工智能》的行政命令,要求對人工智能展開新的安全評估與指導(dǎo)。歐盟的《人工智能法》雖然強(qiáng)調(diào)了倫理的重要性,但并未明確規(guī)定具體的倫理審查流程和標(biāo)準(zhǔn)。美國的《安全、可靠和可信賴的開發(fā)和使用人工智能》行政命令雖然提出了人工智能安全和安保的新標(biāo)準(zhǔn),但對于如何具體執(zhí)行這些標(biāo)準(zhǔn)并未做出明確規(guī)定。而這些恰恰是最關(guān)鍵的問題,也就是人工智能倫理審查的具體細(xì)節(jié)。

      總之,人工智能的倫理審查是一項區(qū)別于傳統(tǒng)生命醫(yī)學(xué)倫理審查的復(fù)雜而重要的任務(wù),需要多學(xué)科多主體的共同參與。同時,目前任何一個主體的任何一種單一的方法都無法完全解決這個難題,需要結(jié)合不同的理論和實(shí)踐,尋找有效的方法不斷完善和優(yōu)化倫理審查機(jī)制,以確保人工智能的健康發(fā)展。

      四、以美德倫理為基礎(chǔ)的倫理審查新范式展望

      人工智能倫理審查的范式創(chuàng)新一方面要打破傳統(tǒng)倫理審查范式以生命科學(xué)為核心而忽略了其他學(xué)科研究訴求的桎梏,另一方面也要考慮人工智能的技術(shù)特點(diǎn)和風(fēng)險特征。需要強(qiáng)調(diào)的是,人工智能倫理審查范式創(chuàng)新是在傳統(tǒng)倫理審查范式的基礎(chǔ)上探索適用于人工智能技術(shù)的審查范式,而非對傳統(tǒng)倫理審查范式的徹底否定,是革新而非革命。考慮到人工智能技術(shù)的技術(shù)特點(diǎn)和風(fēng)險特征以及已有重要的實(shí)踐案例,人工智能倫理審查新范式可以從理論創(chuàng)新、職能創(chuàng)新和方法創(chuàng)新這三個方面進(jìn)行。在理論上,可探索以美德倫理學(xué)為基礎(chǔ),關(guān)注研究者倫理素養(yǎng)培育。在職能上,倫理委員會可拓展為倫理培訓(xùn)和治理功能。在方法上,可發(fā)展技術(shù)工具和指標(biāo)為倫理審查提供支持,并推動價值敏感設(shè)計,實(shí)現(xiàn)技術(shù)倫理融合。

      首先,人工智能倫理審查范式創(chuàng)新需要從第一原則構(gòu)建新的倫理基礎(chǔ),而不是試圖適應(yīng)傳統(tǒng)的生物醫(yī)學(xué)倫理審查,即進(jìn)行理論創(chuàng)新,進(jìn)一步,理論創(chuàng)新將帶動審查標(biāo)準(zhǔn)創(chuàng)新。傳統(tǒng)的倫理審查以規(guī)范倫理學(xué)作為理論基礎(chǔ),新的倫理審查范式應(yīng)當(dāng)突破這一桎梏,本文主張以美德倫理作為理論基礎(chǔ)。一方面,隨著倫理學(xué)的發(fā)展,考慮到規(guī)范倫理學(xué)的種種弊病,美德倫理的復(fù)歸已成大勢所趨。另一方面,在對傳統(tǒng)倫理審查范式的批判中美德倫理不止一次被提及。例如斯蒂芬·雅各布斯(Stephen Jacobs)和艾倫·阿珀利(Alan Apperley)建議建立一種以美德倫理為基礎(chǔ)的新的倫理審查范式,因為以結(jié)果主義倫理學(xué)方法為基礎(chǔ)的生物倫理模型傾向于關(guān)注“我們對他人做了什么,并傾向于忽視僅僅作為一名研究者的更廣泛的道德和社會責(zé)任”[36]。同樣,安娜莉·雅西(Annalee Yassi)等人也提出研究倫理委員會不僅應(yīng)在健康研究中注重保護(hù)個人完整性和人類尊嚴(yán),還應(yīng)考慮社會正義等現(xiàn)實(shí)問題[37]。

      事實(shí)上,從理論上分析,對于人工智能,美德倫理的確是比義務(wù)論或后果論更為合適的理論基礎(chǔ)。與生命醫(yī)學(xué)倫理學(xué)四原則不同,美德倫理學(xué)注重個體品格培養(yǎng)和社會責(zé)任擔(dān)當(dāng),強(qiáng)調(diào)技術(shù)與倫理的融合。亞里士多德認(rèn)為行為主體需要實(shí)踐智慧,在復(fù)雜情境中作出合乎“中道”的技術(shù)應(yīng)用和倫理判斷,實(shí)現(xiàn)普遍意義上的善。這更符合人工智能技術(shù)場景多樣且風(fēng)險難以預(yù)判的特點(diǎn)。因此,人工智能倫理審查可考慮采用美德倫理學(xué)作為理論基礎(chǔ),強(qiáng)調(diào)研究者品德培育和技術(shù)倫理融合。

      對于亞里士多德的美德倫理學(xué)來說,要熟練某項技藝,行為主體必須能夠在異常的情況下不借助某種精確的操作指南來進(jìn)行技能訓(xùn)練,這需要行為主體具備某種洞察力 [38]。這種洞察力就是明智或?qū)嵺`智慧。根據(jù)亞里士多德的理論,技藝的德性在于適度,即“中道”。在人工智能領(lǐng)域格外需要這一點(diǎn),例如醫(yī)療影像圖像識別中假陰性與假陽性之間的取舍問題。技藝行為與德性行為同樣受實(shí)踐智慧指導(dǎo),某種意義上來說技藝行為是德性行為的前階段。“技藝行為需要更高道德目標(biāo)的約束,德性行為也需要結(jié)合技藝行為的認(rèn)知能力和理性選擇。”[39]具體在人工智能領(lǐng)域,一個有德性的人工智能研究者既需要過硬的技術(shù)水平來確保人工智能實(shí)現(xiàn)工具性的目的善,也應(yīng)當(dāng)有道德能力使其符合一種普遍意義上的善。

      隨著基礎(chǔ)理論的轉(zhuǎn)變,人工智能倫理審查新范式下的審查標(biāo)準(zhǔn)也自然需要發(fā)生轉(zhuǎn)變,需要摒棄傳統(tǒng)的根植于功利主義和道義論的結(jié)合體以生命醫(yī)學(xué)為實(shí)踐場景而制定的審查標(biāo)準(zhǔn)。人工智能技術(shù)一方面由于黑箱特性,具有很強(qiáng)的風(fēng)險不確定性,需要在實(shí)踐中逐步加深對其的認(rèn)識,另一方面作為賦能技術(shù)而具有豐富的應(yīng)用場景,因此制定人工智能倫理審查新范式下的審查標(biāo)準(zhǔn)需要充分考慮不確定性和場景特殊性。這與亞氏對與技藝相關(guān)的明智的論述是極其相似的,“在五種理智德性里面,明智是最難通過教與學(xué)直接獲得的,而是需要通過大量經(jīng)驗的積累才能獲得”[40]。谷歌的“判例法”方法是一種類似的嘗試。本文建議或許可以采用風(fēng)險清單而非確定標(biāo)準(zhǔn)的模式,引入社會實(shí)驗、沙盒治理等工具,一邊積累對技術(shù)風(fēng)險的認(rèn)識,一邊最大限度地避免其風(fēng)險造成的社會影響。在長期實(shí)踐形成的經(jīng)驗的基礎(chǔ)上逐步形成相對確定標(biāo)準(zhǔn),并以這些標(biāo)準(zhǔn)反哺人工智能倫理,讓研究者從長期的“最佳實(shí)踐”中培養(yǎng)明智和道德德性,實(shí)現(xiàn)“中道”,實(shí)現(xiàn)美德倫理的追求。

      其次,從現(xiàn)有的實(shí)踐案例來看,人工智能倫理審查范式創(chuàng)新將帶來職能創(chuàng)新,拓展倫理(審查)委員會的職能,而不僅僅將其局限于倫理審查。在高度不確定性下,以義務(wù)論和后果輪為理論基礎(chǔ)的倫理審查很容易流于表面,正如谷歌倫理委員會的前車之鑒。倫理審查和倫理委員會不應(yīng)成為科技公司市場運(yùn)營的噱頭,而應(yīng)當(dāng)真正做一些實(shí)事。美德倫理學(xué)認(rèn)為對于人類的道德實(shí)踐活動而言,重要的是培養(yǎng)穩(wěn)定的道德品質(zhì),而不是為人們編撰一套行為規(guī)范。道德實(shí)踐活動都是情境性的,而一般的行為規(guī)范都忽略了各種情境的特殊性,這也使得道德行為規(guī)范的實(shí)用意義大打折扣。對于人工智能來說尤為如此,其賦能技術(shù)的特點(diǎn)注定了其應(yīng)用場景的豐富性,而在每一個具體的應(yīng)用場景確保人工智能合倫理則是人工智能倫理審查的終極目的。在美德倫理的指引下,人工智能倫理審查新范式不局限于審查工作,應(yīng)當(dāng)對現(xiàn)有的審查進(jìn)行改革,采用更開放性的審查,也就是說人工智能倫理審查委員會需要承擔(dān)更多責(zé)任。

      正如前文所述,倫理規(guī)范的制度化是存在兩條路徑的,倫理審查范式創(chuàng)新應(yīng)當(dāng)對兩條路徑兼收并蓄,避免現(xiàn)有倫理審查制度過于狹隘的缺陷,繼承行業(yè)工會路徑中承擔(dān)工程師的培養(yǎng)、繼續(xù)教育以及給政府、議會和社會提供咨詢等方面工作的責(zé)任。這與美德倫理的要求也是一致的。美德倫理關(guān)注人,一個有道德的人是需要訓(xùn)練的,實(shí)踐智慧需要一類與眾不同的認(rèn)知洞察力,這種理性能力需要一種綜合、評估和規(guī)范的訓(xùn)練[41]。因而實(shí)現(xiàn)倫理培訓(xùn)、倫理生態(tài)建設(shè)等功能也將成為倫理審查委員會的重要職責(zé)。

      此外,多主體參與、多學(xué)科,技術(shù)專家與倫理專家共同合作也非常重要。倫理審查需要綜合型、復(fù)合型人才。自希波克拉底誓言開始,樸素的醫(yī)學(xué)倫理知識便融入在醫(yī)學(xué)教育中,而在人工智能領(lǐng)域還很鮮見。因而培養(yǎng)跨學(xué)科跨領(lǐng)域的人才參與人工智能倫理審查是范式創(chuàng)新的必然結(jié)果,也是美德倫理學(xué)的要求。美德倫理學(xué)注重人的品質(zhì),一個有德性的人是具有實(shí)踐智慧的,這意味著他能在紛繁復(fù)雜的實(shí)踐中持續(xù)穩(wěn)定地彰顯著自身的德性,即做出道德和倫理的選擇。而對于人工智能技術(shù)來說,培養(yǎng)一批具有實(shí)踐智慧的研究者是在不確定性的環(huán)境下使研究更加道德和合倫理的明智之舉。

      最后,人工智能倫理審查需要方法創(chuàng)新,軟硬結(jié)合成為人工智能審查新范式的新特點(diǎn)。無論是谷歌、微軟還是商湯都開發(fā)了工具來增強(qiáng)人工智能的公平性、隱私性等,打造可信的、負(fù)責(zé)任的人工智能。事實(shí)上,可信人工智能、價值敏感設(shè)計等研究方向已經(jīng)成為科技倫理和人工智能技術(shù)共同的前沿方向。因此,未來新的人工智能倫理審查范式也必然是順應(yīng)這一趨勢的,以軟硬結(jié)合為特點(diǎn),用技術(shù)去打開人工智能的黑箱,幫助人們理解人工智能,從而更好地使人工智能合倫理。在美德倫理的指導(dǎo)下,一方面將倫理審查的原則與標(biāo)準(zhǔn)與技術(shù)相結(jié)合,開發(fā)有助于倫理審查的技術(shù)工具和指數(shù)標(biāo)準(zhǔn),使倫理審查的理論和標(biāo)準(zhǔn)技術(shù)化、工程化;另一方面促進(jìn)開發(fā)者的倫理素養(yǎng)培養(yǎng),推動價值敏感設(shè)計,努力在全流程將倫理價值嵌入、整合在技術(shù)中。Morley等人所提出的“倫理即服務(wù)”(Ethics as a Service,EaaS)概念[42]便是一個很好的例子。

      五、結(jié) 論

      綜上所述,從當(dāng)下倫理審查的困境以及人工智能的倫理審查創(chuàng)新實(shí)踐這兩方面綜合來看,人工智能的倫理審查亟須范式創(chuàng)新。人工智能倫理審查的范式創(chuàng)新需要從理論創(chuàng)新、職能創(chuàng)新和方法創(chuàng)新三個角度來進(jìn)行,以理論創(chuàng)新支撐職能創(chuàng)新,以職能創(chuàng)新助推方法創(chuàng)新,以方法創(chuàng)新反哺理論創(chuàng)新,形成符合人工智能技術(shù)發(fā)展規(guī)律、符合人工智能技術(shù)特點(diǎn)的倫理審查范式,從而促進(jìn)人工智能可持續(xù)健康發(fā)展。

      ① 1七條積極的原則是:(1 )對社會有益;(2 )避免制造或者加深不公平的偏見;(3 )在開發(fā)中進(jìn)行測試以確保安全;(4 )對人類負(fù)責(zé);(5 )隱私原則;(6 )堅守對卓越科學(xué)的追求;(7 )在使用中考慮首要用途、技術(shù)的獨(dú)特性及適用性、使用的規(guī)模這三個因素。四條消極原則是指Google 不會在以下領(lǐng)域設(shè)計或部署 AI:(1 )造成或可能造成傷害的技術(shù):在有風(fēng)險隱患的前提下,我們只會在我們認(rèn)為益處遠(yuǎn)遠(yuǎn)大于風(fēng)險的時候繼續(xù),并將納入適當(dāng)?shù)陌踩拗疲唬? )武器或其他技術(shù):即主要目的或?qū)嵤┦窃斐苫蛑苯哟龠M(jìn)對人們的傷害的技術(shù);(3 )收集或使用信息進(jìn)行監(jiān)視的技術(shù):即違反國際公認(rèn)的規(guī)范的技術(shù);(4 )違反普遍接受的國際法和人權(quán)原則的技術(shù)。來源:Google AI. 2021 AI Principles Progress Update. https://ai.google/static/documents/ai-principles-2021-progress-update.pdf

      參考文獻(xiàn)

      郭玉山, 趙長根. 德國工程師協(xié)會. 全球科技經(jīng)濟(jì)瞭望, 2001(2): 39. DOI: 10.3772/j.issn.1009-8623.2001.02.018.

      Riis P. Letter from. Denmark. Planning of scientific-ethical committees. British Medical Journal, 1977, 2(6080): 173.

      Marlowe J, Tolich M. Shifting from research governance to research ethics: A novel paradigm for ethical review in community-based research. Research Ethics, 2015, 11(4): 178-191. DOI: 10.1177/1747016115579536.

      Burr J, Reynolds P. The wrong paradigm? Social research and the predicates of ethical scrutiny. Research Ethics, 2010, 6(4): 128-133. DOI: 10.1177/174701611000600404.

      [5]

      Stevenson F A, Gibson W, Pelletier C, et al. Reconsidering ‘ethics’ and ‘quality’in healthcare research: the case for an iterative ethical paradigm. BMC medical ethics, 2015, 16(1): 1-9. DOI: 10.1186/1472-6939-16-1.

      [6]

      Van den Hoonaard W C. The seduction of ethics: Transforming the social sciences. University of Toronto Press, 2011.

      [7]

      Gontcharov I. Methodological crisis in the social sciences: The New Brunswick Declaration as a new paradigm in research ethics governance?. Transnational Legal Theory, 2013, 4(1): 146-156. DOI: 10.5235/20414005.4.1.146.

      [8]

      Shuster E. Fifty years later: the significance of the Nuremberg Code. New England Journal of Medicine, 1997, 337(20): 1436-1440. DOI: 10.1056/NEJM199711133372006.

      [9]

      Boddington P. Towards a code of ethics for artificial intelligence. Cham: Springer, 2017: 27.

      [10]

      Zhou J, Chen F. AI ethics: From principles to practice. AI & SOCIETY, 2022: 1?11.

      [11]

      Morley J, Floridi L, Kinsey L, et al. From what to how: an initial review of publicly available AI ethics tools, methods and research to translate principles into practices. Science and engineering ethics, 2020, 26(4): 2141-2168. DOI: 10.1007/s11948-019-00165-5.

      [12]

      Beauchamp T, Childress J. Principles of biomedical ethics: marking its fortieth anniversary. The American Journal of Bioethics, 2019, 19(11): 9-12. DOI: 10.1080/15265161.2019.1665402.

      [13]

      Humphreys P. The philosophical novelty of computer simulation methods. Synthese, 2009, 169(3): 615-626. DOI: 10.1007/s11229-008-9435-2.

      [14]

      Durán J M, Jongsma K R. Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI. Journal of Medical Ethics, 2021, 47(5): 329-335.

      [15]

      Holm E A. In defense of the black box. Science, 2019, 364(6435): 26-27. DOI: 10.1126/science.aax0162.

      [16]

      Szegedy C, Zaremba W, Sutskever I, et al. Intriguing properties of neural networks. arXiv preprint arXiv:, 1312, 6199: 2013.

      [17]

      He K, Zhang X, Ren S, et al. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification//Proceedings of the IEEE international conference on computer vision. 2015: 1026?1034.

      Stock P, Cisse M. Convnets and imagenet beyond accuracy: Understanding mistakes and uncovering biases//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 498?512.

      Geirhos R, Temme C R M, Rauber J, et al. Generalisation in humans and deep neural networks. Advances in neural information processing systems, 2018, 31.

      Nagarajan P, Warnell G, Stone P. Deterministic implementations for reproducibility in deep reinforcement learning. arXiv preprint arXiv:, 1809, 05676: 2018.

      [21]

      Russakovsky O, Deng J, Su H, et al. Imagenet large scale visual recognition challenge. International journal of computer vision, 2015, 115: 211-252. DOI: 10.1007/s11263-015-0816-y.

      [22]

      Torralba A, Efros A A. Unbiased look at dataset bias//CVPR 2011. IEEE, 2011: 1521-1528.

      [23]

      Tommasi T, Patricia N, Caputo B, et al. A deeper look at dataset bias. Domain adaptation in computer vision applications, 2017: 37-55.

      [24]

      Matthias A. The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and information technology, 2004, 6(3): 175-183. DOI: 10.1007/s10676-004-3422-1.

      [25]

      孟令宇. 從算法偏見到算法歧視: 算法歧視的責(zé)任問題探究. 東北大學(xué)學(xué)報(社會科學(xué)版), 2022, 24(1): 1-9.

      [26]

      Bleher H, Braun M. Reflections on Putting AI Ethics into Practice: How Three AI Ethics Approaches Conceptualize Theory and Practice. Science and Engineering Ethics, 2023, 29(3): 21. DOI: 10.1007/s11948-023-00443-3.

      [27]

      McLennan S, Fiske A, Tigard D, et al. Embedded ethics: a proposal for integrating ethics into the development of medical AI. BMC Medical Ethics, 2022, 23(1): 6. DOI: 10.1186/s12910-022-00746-3.

      [28]

      Shahriari K, Shahriari M. IEEE standard review—Ethically aligned design: A vision for prioritizing human wellbeing with artificial intelligence and autonomous systems//2017 IEEE Canada International Humanitarian Technology Conference (IHTC). IEEE, 2017: 197?201.

      [29]

      Russell S. Human compatible: Artificial intelligence and the problem of control. Penguin, 2019.

      [30]

      OpenAI. OpenAI Charter. https://openai.com/charter/. Published April 9, 2018

      [31]

      Ziegler D M, Stiennon N, Wu J, et al. Fine-tuning language models from human preferences. arXiv preprint arXiv:, 1909, 08593: 2019.

      [32]

      Bai Y, Kadavath S, Kundu S, et al. Constitutional ai: Harmlessness from ai feedback. arXiv preprint arXiv:, 2212, 08073: 2022.

      [33]

      Friedman B, Kahn P H, Borning A, et al. Value sensitive design and information systems. Early engagement and new technologies: Opening up the laboratory, 2013: 55?95.

      [34]

      Van de Poel I. Translating values into design requirements. Philosophy and engineering: Reflections on practice, principles and process, 2013: 253?266.

      [35]

      Bobbie Johnson, Gideon Lichfield. Hey Google, sorry you lost your ethics council, so we made one for you. 2019. https://www.technologyreview.com/2019/04/06/65905/google-cancels-ateac-ai-ethics-council-what-next/ [2023-2-16]

      [36]

      Jacobs S, Apperley A. Risk-Aversion or Ethical Responsibility? Towards a New Research Ethics Paradigm. 2018.

      [37]

      Yassi A, Breilh J, Dharamsi S, et al. The ethics of ethics reviews in global health research: case studies applying a new paradigm. Journal of Academic Ethics, 2013, 11(2): 83-101. DOI: 10.1007/s10805-013-9182-y.

      [38]

      Annas J. Intelligent virtue. Oxford: Oxford University Press, 2011: 12?20.

      [39]

      孟偉, 楊之林. 技藝與德性中的實(shí)踐智慧——基于亞里士多德倫理學(xué)與當(dāng)代倫理學(xué)自然主義的比較. 道德與文明, 2020(1): 64-68.

      [40]

      劉瑋. 亞里士多德論技藝與德性. 哲學(xué)動態(tài), 2019(10): 75-84.

      [41]

      Hacker-Wright J. Skill, practical wisdom, and ethical naturalism. Ethical Theory and Moral Practice, 2015, 18(5): 983-993. DOI: 10.1007/s10677-015-9566-8.

      [42]

      Morley J, Elhalal A, Garcia F, et al. Ethics as a service: a pragmatic operationalisation of AI ethics. Minds and Machines, 2021, 31(2): 239-256. DOI: 10.1007/s11023-021-09563-w.

      Exploring a New Paradigm for AI Ethical Review

      MENG Ling-yu

      WANG Ying-chun

      (Governance Research Center, Shanghai Artificial Intelligence Laboratory)

      Abstract:In recent years, more and more attention has been paid to the ethical review of science and technology in China. The traditional ethical review paradigm based on biomedical ethics is facing challenges when applied to emerging technologies such as artificial intelligence. This paper analyzes the characteristics of artificial intelligence technology, expounds its impact on the traditional ethical review model, and summarizes the enlightenment of the industry's leading practice strategy on the innovation of the review paradigm. Based on this, this paper proposes that the innovation of AI ethical review paradigm should be carried out from three dimensions: theory, function and method. In theory, the article advocates the adoption of virtue ethics, emphasizing the cultivation of morality, and in function, expanding the responsibilities of the ethics committee. In terms of methods, we should develop technical tools to achieve the organic integration of technology and ethics.

      Keywords:AI, ethical review, ethics (review) committees, paradigm innovation

      作者簡介:

      孟令宇,上海人工智能實(shí)驗室治理研究中心青年研究員,研究方向為科技倫理、人工智能倫理;

      王迎春,上海人工智能實(shí)驗室治理研究中心研究員,研究方向為人工智能倫理治理與創(chuàng)新。

      項目資助:

      科技創(chuàng)新2030——“新一代人工智能”重大項目(2022ZD0160103),受上海人工智能實(shí)驗室資助。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      又一個理財產(chǎn)品爆雷了,涉及資金超120億!

      又一個理財產(chǎn)品爆雷了,涉及資金超120億!

      胡華成
      2025-12-10 16:31:15
      一年兩針!降脂創(chuàng)新藥進(jìn)醫(yī)保,助力高效降脂療法從“可用”走向“可及”

      一年兩針!降脂創(chuàng)新藥進(jìn)醫(yī)保,助力高效降脂療法從“可用”走向“可及”

      文匯報
      2025-12-08 16:59:07
      葡萄牙窮到什么程度?我住了8個月,有些尷尬的現(xiàn)實(shí)得說出來

      葡萄牙窮到什么程度?我住了8個月,有些尷尬的現(xiàn)實(shí)得說出來

      詩意世界
      2025-11-06 10:27:22
      英超懸念又起!曼聯(lián)成功闖關(guān)可爭冠,阿森納掉鏈子,三周再戰(zhàn)維拉

      英超懸念又起!曼聯(lián)成功闖關(guān)可爭冠,阿森納掉鏈子,三周再戰(zhàn)維拉

      徐幫陽
      2025-12-11 01:49:37
      封關(guān)后,海南炸鍋了。有房子的外地人、當(dāng)?shù)赝林紭烽_了花!

      封關(guān)后,海南炸鍋了。有房子的外地人、當(dāng)?shù)赝林紭烽_了花!

      石辰搞笑日常
      2025-12-03 08:50:12
      藍(lán)戰(zhàn)非被綁架新后續(xù):大使館回應(yīng),當(dāng)?shù)鼐浇槿耄唤俳痤~首次曝光,網(wǎng)友炸鍋了

      藍(lán)戰(zhàn)非被綁架新后續(xù):大使館回應(yīng),當(dāng)?shù)鼐浇槿耄唤俳痤~首次曝光,網(wǎng)友炸鍋了

      文字里拾光
      2025-12-11 01:19:52
      社評:正確理解中國的順差很重要

      社評:正確理解中國的順差很重要

      環(huán)球網(wǎng)資訊
      2025-12-10 01:08:40
      中國第一監(jiān)獄:關(guān)的幾乎全是高官,為防止泄密,牢房內(nèi)有特殊布置

      中國第一監(jiān)獄:關(guān)的幾乎全是高官,為防止泄密,牢房內(nèi)有特殊布置

      古事尋蹤記
      2025-11-30 07:16:15
      小S曬S媽收到獎杯視頻,意外曝光家中靈堂,大S遺像出鏡

      小S曬S媽收到獎杯視頻,意外曝光家中靈堂,大S遺像出鏡

      李健政觀察
      2025-12-10 22:26:28
      中方不慣著了!不吃馬克龍 “變臉一套”!

      中方不慣著了!不吃馬克龍 “變臉一套”!

      南權(quán)先生
      2025-12-10 17:10:08
      不焯水等于服毒,這六類蔬菜一定要焯水!

      不焯水等于服毒,這六類蔬菜一定要焯水!

      簡食記工作號
      2025-12-09 00:13:26
      中國一級戰(zhàn)備多可怕?千萬預(yù)備役被召回,14億人立即切換戰(zhàn)爭模式

      中國一級戰(zhàn)備多可怕?千萬預(yù)備役被召回,14億人立即切換戰(zhàn)爭模式

      諦聽骨語本尊
      2025-11-20 16:06:12
      超級大逆轉(zhuǎn)!比輸球更可怕是賽后松島輝空一席話:差點(diǎn)贏世界第一

      超級大逆轉(zhuǎn)!比輸球更可怕是賽后松島輝空一席話:差點(diǎn)贏世界第一

      知法而形
      2025-12-10 23:22:43
      五月天經(jīng)紀(jì)人8字回懟朱孝天,替F4出了口惡氣,大S說的果然沒錯

      五月天經(jīng)紀(jì)人8字回懟朱孝天,替F4出了口惡氣,大S說的果然沒錯

      妙知
      2025-12-10 11:49:07
      阮經(jīng)天被曝韓國看女友,小20歲女友是富家女,身材火辣疑是混血

      阮經(jīng)天被曝韓國看女友,小20歲女友是富家女,身材火辣疑是混血

      小海娛計
      2025-12-10 21:53:23
      美聯(lián)儲利率決議,黃金沖高下跌!

      美聯(lián)儲利率決議,黃金沖高下跌!

      楊子黃金
      2025-12-10 12:35:56
      中使館緊急提醒:中國公民盡快撤離!

      中使館緊急提醒:中國公民盡快撤離!

      每日經(jīng)濟(jì)新聞
      2025-12-10 14:55:29
      給人養(yǎng)了7年閑人,廣汽終于要關(guān)閉洛杉磯的研發(fā)中心

      給人養(yǎng)了7年閑人,廣汽終于要關(guān)閉洛杉磯的研發(fā)中心

      與車同樂
      2025-12-04 10:05:02
      香港再無董建華

      香港再無董建華

      華人星光
      2025-11-25 12:01:27
      雷軍砸1.6億追捧,收割500萬中年男人的“泡泡瑪特”,準(zhǔn)備上市了

      雷軍砸1.6億追捧,收割500萬中年男人的“泡泡瑪特”,準(zhǔn)備上市了

      財經(jīng)八卦
      2025-12-09 21:25:59
      2025-12-11 02:40:49
      科學(xué)的歷程 incentive-icons
      科學(xué)的歷程
      吳國盛、田松主編
      3072文章數(shù) 14988關(guān)注度
      往期回顧 全部

      科技要聞

      防"走私",英偉達(dá)被曝開發(fā)“芯片定位”技術(shù)

      頭條要聞

      男子被上海民警騙去"見面"結(jié)果毒檢陽性 被逼寫認(rèn)罪書

      頭條要聞

      男子被上海民警騙去"見面"結(jié)果毒檢陽性 被逼寫認(rèn)罪書

      體育要聞

      試訓(xùn)20支球隊,落選,成為NBA新秀助攻王

      娛樂要聞

      為何網(wǎng)友不再相信張柏芝的“故事”?

      財經(jīng)要聞

      對話陳志武:特朗普嚴(yán)重誤判中國!

      汽車要聞

      有動力操控 有智能座艙 6萬多的第五代帝豪掀桌子了

      態(tài)度原創(chuàng)

      教育
      藝術(shù)
      數(shù)碼
      手機(jī)
      時尚

      教育要聞

      TTS新傳論文帶讀:德國媒介研究不存在?齊林斯基談媒介研究的歷史、現(xiàn)狀與未來

      藝術(shù)要聞

      砸10億!80米!圓通在上海的總部大樓,酷似滿天星!

      數(shù)碼要聞

      飛牛首款自有NAS預(yù)熱:雙盤位Evo 2尺寸僅2.33L

      手機(jī)要聞

      192g機(jī)身塞進(jìn)7000mAh大電池 真我16 Pro入網(wǎng)

      這些才是普通人都該學(xué)的冬季穿搭!不浮夸、不單薄,自然保暖

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 欧美日本亚洲| 人人妻人人澡人人爽秒播| 天天夜碰日日摸日日澡性色av| 亚洲伊人久久综合成人| 凹凸福利导航| 17c.ccm| 中国少妇无码专区| 欧美日本中文| 韩国精品一区二区| 增城市| 色综合久久综合欧美综合网| 军人全身脱精光自慰| 国产精品v欧美精品∨日韩| 久久精品欧美一区二区三区麻豆 | 国产精品高潮呻吟av久久动漫| 日韩精品 在线 国产 丝袜| 9191久久| 亚洲色成人网站www永久| 中国无码人妻丰满熟妇啪啪软件 | 宜春市| 丰满少妇高潮惨叫久久久| 欧美偷拍视频| 蜜桃91精品秘?入口| 久久久一区二区三区四区免费听| 日本japanese丰满白浆| 亚洲 日韩 欧美 成人 在线 | 欧性猛交ⅹxxx乱大交| 亚洲av永久无码精品天堂久久| a片入口| 亚洲国产制服丝袜先锋| 女女互磨互喷水高潮les呻吟| 91人妻论坛| 玉环县| 蜜桃视频无码区在线观看| 中文熟妇人妻av在线| 内射网址| 综合网日日天干夜夜久久| 丰满少妇人妻无码| 69精品人人| 涞源县| 亚洲精品久久久久玩吗|