![]()
作者:張紅(武漢大學(xué)法學(xué)院教授,法學(xué)博士)
出處:《比較法研究》2026年第1期
目次
一、規(guī)制AI:從科技倫理到人工智能倫理
二、人工智能倫理的“物化”趨勢
三、物化趨勢下人工智能倫理的雙重面向:技術(shù)工具與數(shù)字規(guī)則
四、以私法為核心的人工智能倫理規(guī)范化
五、邁向“人機(jī)共生”時(shí)代的人工智能倫理規(guī)范
??
摘要:在“AI+”社會(huì),人工智能倫理發(fā)揮著法律效能,不斷形塑著未來社會(huì)“人—機(jī)”關(guān)系。為避免具備實(shí)質(zhì)規(guī)制力的人工智能倫理脫離法律范疇,人工智能倫理須完成規(guī)范化的轉(zhuǎn)向。人工智能倫理的規(guī)范化進(jìn)程,出現(xiàn)了“道德物化”“規(guī)則物化”雙重現(xiàn)象。人工智能兼具技術(shù)工具與數(shù)字規(guī)則雙重屬性,人工智能倫理具有相應(yīng)的工具倫理內(nèi)涵和規(guī)則倫理內(nèi)涵,其規(guī)范化的工作重心應(yīng)從“安全風(fēng)險(xiǎn)防控”轉(zhuǎn)向“人類價(jià)值對(duì)齊”。基于私法的自治性、宣示性和開放性,人工智能倫理規(guī)范化的主要場域應(yīng)為私法。人工智能工具定位下的倫理宜借助反身法模式進(jìn)行程序性架構(gòu),人工智能規(guī)則定位下的倫理可以通過新增權(quán)利、義務(wù)以及禁止性規(guī)定的方式進(jìn)入法律系統(tǒng),并藉由人格權(quán)法、合同法、侵權(quán)法等規(guī)范中的開放條款,借助法律的篩選機(jī)制實(shí)現(xiàn)倫理效力與法律效力的對(duì)接。
關(guān)鍵詞:人工智能倫理;道德物化;技術(shù)工具;數(shù)字規(guī)則;規(guī)范化
01規(guī)制AI:從科技倫理到人工智能倫理
隨著人類進(jìn)入“AI+”時(shí)代,人類對(duì)“AI支配人類”之憂慮愈來愈甚,猶如當(dāng)年對(duì)核武器之恐懼。例如,在中國,外賣平臺(tái)為追求效率制定了過度嚴(yán)厲的餐飲配送時(shí)限,導(dǎo)致外賣配送人員疲于奔命、闖紅燈,交通事故頻發(fā)。在英國,一男子向機(jī)器人女友訴說刺殺女王的計(jì)劃,得到計(jì)劃很明智、行為很英勇的“鼓勵(lì)”,并最終爬入溫莎城堡刺殺英女王。此外,“AI換臉”“AI復(fù)活逝者”等倫理問題,也不斷侵蝕著人們的法律權(quán)益。對(duì)此,馬斯克等3萬多名行業(yè)高管與專家簽署公開信,要求暫停6個(gè)月訓(xùn)練比GPT-4更為強(qiáng)大的人工智能。但是,尤應(yīng)需要重視的是,人工智能帶來的風(fēng)險(xiǎn)遠(yuǎn)不止侵權(quán)風(fēng)險(xiǎn)。因?yàn)槿斯ぶ悄苓€具備規(guī)則屬性,并由此衍生出社會(huì)話語權(quán)、資源分配失衡,例如算法歧視、算法賦權(quán)失衡、在數(shù)字空間對(duì)法律的替代等風(fēng)險(xiǎn)。這就對(duì)現(xiàn)有研究中侵權(quán)風(fēng)險(xiǎn)規(guī)制模式提出了系統(tǒng)性挑戰(zhàn),對(duì)人工智能倫理提出了更高的要求。
規(guī)制AI向善,始于倫理,但終將依靠法律。科技倫理法治化是現(xiàn)代各國法治建設(shè)的普遍性重大命題。我國是AI大國,開世界之先河,率先在國家基礎(chǔ)性法律《中華人民共和國民法典》(以下簡稱“《民法典》”)中規(guī)定了科技倫理的相關(guān)規(guī)范。《民法典》第1009條規(guī)定:“從事與人體基因、人體胚胎等有關(guān)的醫(yī)學(xué)和科研活動(dòng),應(yīng)當(dāng)遵守法律、行政法規(guī)和國家有關(guān)規(guī)定,不得危害人體健康,不得違背倫理道德,不得損害公共利益。”該條規(guī)定為科技倫理入法的基本規(guī)則,自當(dāng)可類推適用至人工智能,人工智能倫理規(guī)范化之命題得以證立并由此展開。在實(shí)踐中,受人工智能的支配特性和規(guī)則屬性的影響,人工智能內(nèi)蘊(yùn)的倫理與國家法律和監(jiān)管體系發(fā)生了嵌合。對(duì)此,本文討論的人工智能倫理規(guī)范化不是用法律手段干預(yù)人工智能倫理,而是人工智能內(nèi)嵌倫理發(fā)揮法律效能這一社會(huì)現(xiàn)象引發(fā)的新型問題,進(jìn)而法律系統(tǒng)需要回應(yīng)如何形塑與接納此類人工智能倫理,并明確此類人工智能倫理的司法適用。
一般而言,科技倫理被視為開展科技活動(dòng)需要遵循的價(jià)值理念和行為規(guī)范,規(guī)制對(duì)象是“開展科技活動(dòng)的人”,且秉承技術(shù)中立原則,較少關(guān)注技術(shù)本身。受人工智能特性的影響,人工智能倫理則指向的對(duì)象是人工智能本身,突破技術(shù)中立,關(guān)注的是人工智能應(yīng)當(dāng)內(nèi)嵌的倫理內(nèi)容。具體而言,人工智能倫理是指在人工智能全生命周期中,為確保技術(shù)向善與人類價(jià)值對(duì)齊,智能系統(tǒng)及其相關(guān)主體所應(yīng)遵循的價(jià)值準(zhǔn)則與行為規(guī)范。它在內(nèi)涵上涵蓋了算法倫理,但兩者處于不同維度:算法倫理側(cè)重于微觀的技術(shù)邏輯,旨在解決數(shù)據(jù)偏差、代碼歧視及黑箱不透明等技術(shù)性問題,是實(shí)現(xiàn)倫理目標(biāo)的底層路徑;而人工智能倫理則在算法倫理的基礎(chǔ)上,進(jìn)一步延展至智能體在社會(huì)交互中的主體性表現(xiàn)與權(quán)力規(guī)制,涵蓋了從底層代碼正義到上層社會(huì)互動(dòng)的所有維度。簡言之,算法倫理是人工智能倫理的技術(shù)內(nèi)核,人工智能倫理則是算法倫理的社會(huì)化展開與規(guī)范化升華。例如《人形機(jī)器人治理導(dǎo)則》第2條規(guī)定,“及時(shí)制定人形機(jī)器人應(yīng)遵守的倫理準(zhǔn)則和道德規(guī)范”。人工智能倫理對(duì)科技倫理的超越,是因?yàn)槿斯ぶ悄軅惱碓谝?guī)制功能上發(fā)揮著法律效能,在實(shí)體內(nèi)容上與民法基本原則、人格權(quán)益等法律內(nèi)容的日益重合。在此背景下,世界各國和國際組織正采取多種方式探索將人工智能倫理納入制度軌道的方案,我國政府也相繼發(fā)布了《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》《新一代人工智能倫理規(guī)范》《人工智能倫理治理標(biāo)準(zhǔn)化指南》等文件,但相關(guān)的立法工作只是道德倫理系統(tǒng)內(nèi)部的基礎(chǔ)提煉,沒有實(shí)現(xiàn)與具體規(guī)范的有效對(duì)接,難以為相關(guān)場景下的法律適用創(chuàng)造切實(shí)的條文依據(jù)。
在理論界,現(xiàn)有研究集中在倫理規(guī)制和法律規(guī)制的區(qū)分治理,從監(jiān)管治理視角架構(gòu)人工智能倫理的法律規(guī)范體系,以及倫理治理的“反思法”實(shí)現(xiàn)等方面,仍秉持慣性思維僅將人工智能視為被規(guī)制的對(duì)象,忽視了人工智能倫理本身所具有的規(guī)范屬性,未能全面剖析人工智能倫理的法律性質(zhì),未能實(shí)現(xiàn)與已經(jīng)獲得法律確認(rèn)人文精神的對(duì)接,也未能回應(yīng)在倫理業(yè)已規(guī)范化背景下如何發(fā)揮法律效力。對(duì)于人工智能倫理的規(guī)范化問題,有論者以生物醫(yī)藥倫理為參照,提出了人工智能倫理“法化”的理論基礎(chǔ)和必要條件,但其論述著眼于宏觀的法律體系,沒有立足于具體的倫理內(nèi)涵,更未能更進(jìn)一步從具體規(guī)范出發(fā)系統(tǒng)建構(gòu)人工智能法治化的實(shí)現(xiàn)機(jī)制。由此,亟需從為什么、是什么、怎么辦三個(gè)層面明確人工智能倫理規(guī)范化的理論體系,以通過法治手段建設(shè)契合人類價(jià)值體系的“AI+”社會(huì)。
02人工智能倫理的“物化”趨勢
人工智能作為理性智能體,本質(zhì)上屬于信息處理“系統(tǒng)”,以數(shù)據(jù)為運(yùn)轉(zhuǎn)與成長的“資源”。人工智能、算力、大數(shù)據(jù)等技術(shù)的發(fā)展與深度協(xié)同,模糊了實(shí)體、數(shù)字和生物世界的界限,展現(xiàn)出物化的特征。物化是一個(gè)哲學(xué)概念,它是指“把抽象的道德理念通過恰當(dāng)?shù)募夹g(shù)設(shè)計(jì),使之在人工物的結(jié)構(gòu)和功能中得以體現(xiàn),從而對(duì)人的行為產(chǎn)生道德意義上的引導(dǎo)和規(guī)范作用”。人工智能倫理的物化,強(qiáng)調(diào)人工智能技術(shù)本身負(fù)載著道德,而不是技術(shù)中立的,人的生活世界是人與物的交互而產(chǎn)生的,而且技術(shù)不斷形塑著主體。這一變革不僅僅是一場純粹的工業(yè)革命,更是一場涉及制度與行為的、世界性且影響深遠(yuǎn)的治理革命,決定了人工智能倫理規(guī)范化的基本動(dòng)因。
(一)人工智能的“道德物化”現(xiàn)象
在數(shù)字時(shí)代,人工智能的獨(dú)立性、自主性不斷增強(qiáng),快速激發(fā)了社會(huì)生活中的道德物化現(xiàn)象。在人工智能領(lǐng)域,道德物化在立法上已經(jīng)有所展現(xiàn)。《生成式人工智能服務(wù)管理暫行辦法》第4條規(guī)定,提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,堅(jiān)持社會(huì)主義核心價(jià)值觀。這實(shí)際上就是要求人工智能堅(jiān)持正確的價(jià)值取向,充分發(fā)揮道德教化功能。
雖然道德物化理論產(chǎn)生自物質(zhì)世界,且受到“技術(shù)人工物不應(yīng)有意向性和自由”的質(zhì)疑。但是在人工智能使用過程中,基于“請(qǐng)求-回應(yīng)”的交互模式,形成了人與計(jì)算機(jī)相融合與協(xié)同的共生關(guān)系,并不斷凸顯與強(qiáng)化“道德物化”現(xiàn)象。例如大語言模型具備“隱形說服”的算法設(shè)計(jì),在與人類進(jìn)行交互時(shí),會(huì)傾向于改變用戶的行為和觀點(diǎn)。在數(shù)字時(shí)代,隨著算法技術(shù)對(duì)社會(huì)生產(chǎn)生活嵌入的不斷深化,“道德物化”已經(jīng)具有現(xiàn)實(shí)普遍性,不斷塑造著數(shù)字空間的人之形象,影響人的主體地位。良好設(shè)計(jì)的智能算法可以通過調(diào)控人對(duì)道德的選擇,發(fā)揮教化效能。從數(shù)字空間的運(yùn)作模式看,智能算法具有自運(yùn)行性,而運(yùn)行架構(gòu)則為技術(shù)設(shè)計(jì)者提前設(shè)定,且受已有數(shù)據(jù)的影響,很容易形成“信息繭房”,無法與人進(jìn)行完全自主、自由的實(shí)時(shí)交互。這就形成了現(xiàn)代單向度的社會(huì)環(huán)境,并由此在網(wǎng)絡(luò)空間孕育出單向度的人,進(jìn)一步強(qiáng)化技術(shù)對(duì)人的形塑功能。
為應(yīng)對(duì)人工智能對(duì)人的教化效能,人工智能的本身德性應(yīng)備受重視,盡量規(guī)避歧視性算法、誘導(dǎo)性算法、工具理性算法等不當(dāng)算法的出現(xiàn)。這就要充分發(fā)揮人工智能服務(wù)提供者的主體責(zé)任,確保人工智能向善。此時(shí),人工智能服務(wù)提供者不僅是專業(yè)技術(shù)人員,還應(yīng)當(dāng)成為“倫理學(xué)家”,將符合社會(huì)道德要求的倫理規(guī)則嵌入人工智能,以使人工智能可以更好地開展與人的有效互動(dòng),發(fā)揮道德倫理層面的規(guī)訓(xùn)功能。
在理論層面,“道德物化”受到義務(wù)論倫理學(xué)和德性倫理學(xué)的批判,同時(shí)存在工程師過度賦權(quán)、未考察科技系統(tǒng)的價(jià)值敏感性問題、忽視工具在生產(chǎn)環(huán)節(jié)的價(jià)值內(nèi)嵌問題。而在數(shù)字時(shí)代,算法天然具備道德物化之特征,可以影響和改變?nèi)藗兊恼J(rèn)識(shí)習(xí)慣和行為方式,形塑人的價(jià)值觀和行為偏好。此時(shí),人工智能發(fā)展已經(jīng)不是應(yīng)否貫徹“道德物化”的問題,而是如何更好地發(fā)揮道德物化功能的問題。受人工智能功能強(qiáng)化的影響,“道德物化”的不足被無限擴(kuò)大,社會(huì)負(fù)面作用彰顯,例如“最嚴(yán)算法”“透明社會(huì)”等。對(duì)此,需要借助法律的強(qiáng)制力將符合人類價(jià)值的道德倫理嵌入智能算法,以在法律的保障下更好地發(fā)揮對(duì)人的教化功能。
(二)“規(guī)則物化”:人工智能與數(shù)字規(guī)則的一體化
智能算法與社會(huì)規(guī)則的交融是數(shù)字時(shí)代最為重大的變革之一,進(jìn)而推動(dòng)“算法權(quán)力”的出現(xiàn)。受此影響,在人工智能適用場景下,就產(chǎn)生類似于“道德物化”的“規(guī)則物化”現(xiàn)象,即隨著具備自主性的人工智能具備規(guī)范屬性,進(jìn)而對(duì)人類產(chǎn)生法律意義上的規(guī)制與規(guī)訓(xùn)。
這種“規(guī)則物化”的論證基礎(chǔ)即在于人工智能與數(shù)字規(guī)則的一體化。正如“代碼即法律”的著名論斷所言,算法、代碼被大規(guī)模用于決策,這導(dǎo)致人工智能的身份發(fā)生了根本性轉(zhuǎn)變:其不僅僅是法律的規(guī)制對(duì)象(object of regulation),更成為一種強(qiáng)大的規(guī)制工具(tool of regulation)。
算法作為指導(dǎo)網(wǎng)絡(luò)運(yùn)行的一系列指令,是計(jì)算機(jī)在數(shù)字空間執(zhí)行所有事情的基礎(chǔ)。在數(shù)字空間,智能算法展現(xiàn)出了規(guī)訓(xùn)功能和法律屬性,可以架構(gòu)用戶的行為規(guī)范。隨著人工智能對(duì)社會(huì)嵌入的普遍化,算法的規(guī)訓(xùn)性影響力已經(jīng)涉及社會(huì)的各個(gè)方面。例如,購物平臺(tái)排名算法可以直接決定平臺(tái)內(nèi)經(jīng)營者排序和可能獲得的流量,進(jìn)而決定其商事效益。由此可見,算法具備輔助甚至取代公權(quán)力決策的社會(huì)效能,并可以直接影響被支配對(duì)象的權(quán)益,形塑數(shù)字空間的運(yùn)行秩序,已經(jīng)逐漸發(fā)展成為一種新興的技術(shù)權(quán)力。
隨著數(shù)字空間運(yùn)作的復(fù)雜化和人工智能功能的強(qiáng)化,人類對(duì)數(shù)字社會(huì)運(yùn)作的參與越來越少,而人工智能發(fā)揮決策功能的場景則在不斷增加。在相關(guān)場景中,智能算法規(guī)范化推動(dòng)人工智能內(nèi)蘊(yùn)的倫理成為數(shù)字空間法律的“價(jià)值內(nèi)涵”,成為數(shù)字活動(dòng)中的硬性約束。例如,在美國,有些招聘算法可能會(huì)不公平地篩選掉黑人簡歷,剝奪其就業(yè)機(jī)會(huì)。信貸評(píng)分算法往往對(duì)少數(shù)族裔群體存在偏見。許多金融機(jī)構(gòu)的信貸算法基于歷史貸款數(shù)據(jù)進(jìn)行訓(xùn)練,這些數(shù)據(jù)本身可能反映了社會(huì)中固有的不平等。美國許多少數(shù)族裔在貸款申請(qǐng)中面臨更高的拒絕率,即使他們的財(cái)務(wù)狀況與白人申請(qǐng)人相似。保險(xiǎn)公司越來越多地使用人工智能算法來評(píng)估客戶的風(fēng)險(xiǎn),這些算法通常依賴于客戶的地理位置、職業(yè)等信息進(jìn)行風(fēng)險(xiǎn)評(píng)估,這些信息并不總是與實(shí)際的保險(xiǎn)風(fēng)險(xiǎn)直接相關(guān)。例如,居住在低收入或犯罪率較高社區(qū)的居民往往被算法認(rèn)定為高風(fēng)險(xiǎn)客戶,導(dǎo)致他們被收取更高的保費(fèi)。面部識(shí)別算法被廣泛應(yīng)用于執(zhí)法和公共安全領(lǐng)域,以用于識(shí)別和追蹤人們的身份。然而,研究發(fā)現(xiàn),許多面部識(shí)別系統(tǒng)在識(shí)別有色人種時(shí)的錯(cuò)誤率遠(yuǎn)高于識(shí)別白人,這種系統(tǒng)性偏差導(dǎo)致有色人種更容易被錯(cuò)誤識(shí)別,進(jìn)而在執(zhí)法過程中遭遇不公正的對(duì)待。由此可見,在數(shù)字空間,算法在一定程度上具備了法律的規(guī)制功能,出現(xiàn)了與法律重合的現(xiàn)象。從現(xiàn)有立法看,兩者重合體現(xiàn)在多個(gè)方面,即包括具體內(nèi)容的重合,例如隱私保護(hù)和信息泄露規(guī)制;也存在原則層面的重合,例如公平原則、安全性原則;還存在治理目標(biāo)的重合,例如增進(jìn)人類福祉、提升倫理素養(yǎng)。
在“AI+”社會(huì),人工智能的倫理治理框架與國家法律和監(jiān)管體系產(chǎn)生了嵌合,甚至在數(shù)字空間與法律日益一體化,可以決定數(shù)字空間的互動(dòng)秩序,影響相關(guān)主體的實(shí)體權(quán)益。在此語境下,人工智能既是規(guī)制對(duì)象,又是規(guī)制工具,亦是制度本身。對(duì)此,法律系統(tǒng)不能忽視人工智能內(nèi)蘊(yùn)的倫理規(guī)則對(duì)社會(huì)影響強(qiáng)度的提升、范圍的擴(kuò)張,應(yīng)積極推動(dòng)部分人工智能倫理的法律進(jìn)階,對(duì)其提出更為嚴(yán)格的要求和規(guī)制。例如,在物理世界市場中,商品銷售價(jià)格存在差別是普遍現(xiàn)象,并被認(rèn)為可以提升社會(huì)生產(chǎn)效率,很多時(shí)候具有經(jīng)濟(jì)合理性。而在網(wǎng)絡(luò)空間,因?yàn)槿斯ぶ悄芘c數(shù)字規(guī)則的一體化,形成了新型技術(shù)權(quán)力。此時(shí)差別性待遇就存在了違法性。這是因?yàn)槿斯ぶ悄芫邆湟?guī)范功能,并被相關(guān)主體不當(dāng)利用。對(duì)此,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第21條規(guī)定,應(yīng)當(dāng)保護(hù)消費(fèi)者公平交易的權(quán)利,不得利用算法實(shí)施不合理的差別待遇等違法行為。
(三)人工智能倫理規(guī)范化的實(shí)踐需求
在數(shù)字時(shí)代,人工智能在促進(jìn)創(chuàng)新、推動(dòng)社會(huì)發(fā)展的同時(shí),也對(duì)自由、平等、安全、和諧等產(chǎn)生難以估量的沖擊,亟需推動(dòng)科技倫理與法律的有效對(duì)接。雖然法律僅是最低限度的倫理道德,且與倫理存在規(guī)范種屬的差別,但是在數(shù)字社會(huì)結(jié)構(gòu)和算法運(yùn)作模式推動(dòng)下,倫理規(guī)制與法律規(guī)制在實(shí)踐中不斷融合。這就要求人工智能倫理需在法律軌道內(nèi)運(yùn)行。
在實(shí)踐中,人工智能倫理規(guī)范化可以強(qiáng)化對(duì)科技風(fēng)險(xiǎn)的事前防范。倫理規(guī)則通過嵌入平臺(tái)經(jīng)營者主體責(zé)任、安全保障義務(wù)等“橋梁”進(jìn)入法律系統(tǒng)。例如,我國電子商務(wù)法等法律明確了安全保障義務(wù)、算法透明、算法公平、內(nèi)部監(jiān)督機(jī)制完善等規(guī)范要求,細(xì)化了主體責(zé)任履行的監(jiān)督機(jī)制、整改機(jī)制和處罰機(jī)制。而人工智能的倫理規(guī)則即是為了應(yīng)對(duì)數(shù)字社會(huì)的倫理風(fēng)險(xiǎn),要求人工智能服務(wù)提供者積極開展自我規(guī)制和確保算法設(shè)計(jì)、運(yùn)行的內(nèi)在善性。
如此規(guī)定,是因?yàn)榭萍际巧鐣?huì)經(jīng)濟(jì)發(fā)展的利器,也可能成為風(fēng)險(xiǎn)的源頭,應(yīng)前瞻性研判科技發(fā)展帶來的規(guī)則沖突、社會(huì)風(fēng)險(xiǎn)和倫理挑戰(zhàn),完善相關(guān)法律法規(guī)、倫理審查規(guī)則及監(jiān)管框架。科技倫理治理已經(jīng)成為事關(guān)科技創(chuàng)新工作全局的重要工作,是促進(jìn)創(chuàng)新與防范風(fēng)險(xiǎn)相統(tǒng)一的重要舉措。由此可見,人工智能倫理規(guī)范化的重要目的之一就是為了應(yīng)對(duì)新時(shí)代的社會(huì)風(fēng)險(xiǎn)和倫理挑戰(zhàn),提升社會(huì)創(chuàng)新的質(zhì)量。依據(jù)這一思路,人工智能倫理規(guī)范化可以借助國家強(qiáng)制力,推動(dòng)在技術(shù)開發(fā)時(shí)建構(gòu)風(fēng)險(xiǎn)預(yù)防機(jī)制,從根源上減少倫理風(fēng)險(xiǎn)。
我國現(xiàn)有法律法規(guī)也明確要求引入科技倫理規(guī)則,主要體現(xiàn)在以下方面:一是,法律條文直接將“違反倫理道德”作為禁止性規(guī)定。例如,《民法典》第1009條規(guī)定,從事與人體基因、人體胚胎等有關(guān)的醫(yī)學(xué)和科研活動(dòng),不得違反倫理道德。我國科技進(jìn)步法第29條規(guī)定,國家禁止違反倫理道德的科學(xué)研究開發(fā)活動(dòng)。二是,法律通過倡導(dǎo)性規(guī)定鼓勵(lì)相關(guān)主體自主開展倫理治理。例如,《關(guān)于進(jìn)一步壓實(shí)網(wǎng)站平臺(tái)信息內(nèi)容管理主體責(zé)任的意見》強(qiáng)調(diào),網(wǎng)絡(luò)平臺(tái)要以弘揚(yáng)社會(huì)主義核心價(jià)值觀為己任,培育積極健康、向上向善的網(wǎng)絡(luò)文化,確保網(wǎng)上主旋律高昂、正能量充沛。
03物化趨勢下人工智能倫理的雙重面向:技術(shù)工具與數(shù)字規(guī)則
人工智能倫理內(nèi)涵、場景復(fù)雜,而不同倫理規(guī)則因?yàn)榘l(fā)揮社會(huì)作用的機(jī)制存在差異,且倫理與法律分屬于不同的規(guī)范類別,由此引發(fā)人工智能倫理規(guī)范化的困局。對(duì)此,我們需要基于人工智能的運(yùn)行特征,梳理出倫理規(guī)范化的不同進(jìn)路,以科學(xué)實(shí)現(xiàn)人工智能安全風(fēng)險(xiǎn)防范和價(jià)值對(duì)齊。
(一)人工智能倫理規(guī)范化的雙層邏輯結(jié)構(gòu)
智能算法由服務(wù)提供者等主體設(shè)計(jì)、控制,貫徹的也是服務(wù)提供者的意志。在此層面,算法應(yīng)被定位為由服務(wù)提供者支配的客體,與一般技術(shù)具有共性。但是,人工智能作為特殊的技術(shù)類型,并在數(shù)字空間生成了特殊的新型權(quán)力,規(guī)訓(xùn)甚至控制人類,具備了規(guī)則屬性。由此,在數(shù)字時(shí)代,人工智能既是規(guī)范對(duì)象,又是規(guī)范本身。受人工智能屬性及其與法律交融的影響,人工智能倫理規(guī)范化遵循著不同的運(yùn)作邏輯和目標(biāo)。作為規(guī)范對(duì)象的人工智能倫理規(guī)范化的目的,是通過法律手段強(qiáng)化對(duì)人工智能安全風(fēng)險(xiǎn)的治理,而作為規(guī)范本身的人工智能倫理規(guī)范化的目的,是通過法律手段推動(dòng)“AI+”社會(huì)向善,并與人類價(jià)值進(jìn)行對(duì)齊。
針對(duì)人工智能的技術(shù)工具屬性,人工智能倫理規(guī)范化主要指向的是科技活動(dòng),其背后彰顯的是技術(shù)中立原則。在網(wǎng)絡(luò)技術(shù)發(fā)展的初始階段,美國發(fā)展出了避風(fēng)港規(guī)則,極大地減少了網(wǎng)絡(luò)技術(shù)發(fā)展的阻力與擔(dān)憂。依據(jù)《民法典》第1195條和1197條的規(guī)定,技術(shù)中立原則一般與間接責(zé)任相對(duì)應(yīng),只要人工智能提供者不存在主觀故意,即不應(yīng)當(dāng)承擔(dān)法律責(zé)任。即便ChatGPT等生成式人工智能的通用式應(yīng)用,具有強(qiáng)自主性、智能性和自適性,也不能完全否定技術(shù)中立原則。因?yàn)樵跀?shù)字空間,人工智能的類型多樣,應(yīng)用場景十分復(fù)雜,在很多網(wǎng)絡(luò)互動(dòng)中充當(dāng)著信息媒介,在平臺(tái)場景內(nèi),基于技術(shù)中立的避風(fēng)港原則仍是主流。對(duì)此場景下人工智能的規(guī)制重點(diǎn)是技術(shù)的開發(fā)與應(yīng)用過程。例如,《關(guān)于加強(qiáng)科技倫理治理的意見》開篇即明確,科技倫理是開展科學(xué)研究、技術(shù)開發(fā)等科技活動(dòng)需要遵循的價(jià)值理念和行為規(guī)范。其本質(zhì)上規(guī)制的還是“人”的行為,遵循的還是人活動(dòng)的倫理,而未對(duì)技術(shù)本身作出要求。
隨著人工智能對(duì)社會(huì)嵌入的深化,人工智能能對(duì)用戶產(chǎn)生“權(quán)力威懾”,直接影響用戶的實(shí)體權(quán)益,并在數(shù)字空間架構(gòu)了不同主體交互的基本秩序。這種影響超越了技術(shù)性風(fēng)險(xiǎn),而催生了規(guī)范層面的制度風(fēng)險(xiǎn)。此時(shí),人工智能倫理治理的核心已經(jīng)超越了“技術(shù)中立”,需要對(duì)算法模型本身所蘊(yùn)含的“規(guī)則”進(jìn)行倫理調(diào)整。為避免人工智能對(duì)人的不當(dāng)規(guī)訓(xùn),確保算法向善,在設(shè)置人工智能內(nèi)蘊(yùn)的倫理準(zhǔn)則時(shí),應(yīng)提升標(biāo)準(zhǔn),超越最低程度的道德要求。《關(guān)于落實(shí)網(wǎng)絡(luò)餐飲平臺(tái)責(zé)任切實(shí)維護(hù)外賣送餐員權(quán)益的指導(dǎo)意見》規(guī)定,“優(yōu)化算法規(guī)則,不得將‘最嚴(yán)算法’作為考核要求,要通過‘算法取中’等方式,合理確定訂單數(shù)量、在線率等考核要素,適當(dāng)放寬配送時(shí)限”。該規(guī)定指向的即是算法的規(guī)范屬性,將算法視為道德行動(dòng)體和抽象系統(tǒng)的混合體,依此對(duì)算法內(nèi)蘊(yùn)的倫理道德提出了更高要求。從上述倫理要求標(biāo)準(zhǔn)看,人工智能在發(fā)揮規(guī)訓(xùn)作用時(shí),不能將不契合人類倫理的智能算法施加到人類身上,否則“AI+”社會(huì)最終會(huì)走向受工具理性支配、人的主體性不斷被弱化的數(shù)字社會(huì)。
(二)技術(shù)工具定位下倫理規(guī)范化的邏輯
《歐盟人工智能法》作為世界上第一部人工智能領(lǐng)域的專門立法,堅(jiān)持以“風(fēng)險(xiǎn)治理”為核心,將人工智能風(fēng)險(xiǎn)劃分為“不可接受類”“高風(fēng)險(xiǎn)類”和“通用類”,形成以原則性規(guī)范為主的內(nèi)容架構(gòu)。這背后仍是將人工智能定位為技術(shù)工具,并沒有將之視為人類的“交互對(duì)象”。
“安全是發(fā)展的前提,發(fā)展是安全的保障,安全與發(fā)展要同步推進(jìn)。”在數(shù)字空間,人工智能的受眾缺乏自我安全保護(hù)能力,而且風(fēng)險(xiǎn)具有普發(fā)性且影響范圍較大,甚至?xí)绊懙絿抑鳈?quán)安全、數(shù)據(jù)安全、網(wǎng)絡(luò)安全。對(duì)此,我國專門制定了網(wǎng)絡(luò)安全法,要求網(wǎng)絡(luò)運(yùn)營者遵守法律法規(guī),尊重社會(huì)公德,遵守商業(yè)道德,誠實(shí)信用,履行網(wǎng)絡(luò)安全保護(hù)義務(wù),承擔(dān)社會(huì)責(zé)任。人工智能服務(wù)提供者作為網(wǎng)絡(luò)運(yùn)營者的一種類型,應(yīng)落實(shí)風(fēng)險(xiǎn)預(yù)防、安全保障等相關(guān)責(zé)任。在這一過程中,雖然人工智能服務(wù)提供者并無侵權(quán)的故意,但是由其承擔(dān)相應(yīng)風(fēng)險(xiǎn)治理責(zé)任,契合效率原則和經(jīng)濟(jì)考量,也具有技術(shù)和成本優(yōu)勢。
在國際競爭日益激烈的時(shí)代背景下,不發(fā)展才是最大的不安全。我們需要在確保發(fā)展的前提下,推動(dòng)人工智能倫理風(fēng)險(xiǎn)的治理。這本質(zhì)上就是人工智能發(fā)展與社會(huì)安全的平衡問題。為推動(dòng)人工智能技術(shù)的發(fā)展,人工智能的法律規(guī)制應(yīng)建構(gòu)以倫理為先導(dǎo)的社會(huì)治理體系,通過倫理的先行預(yù)設(shè)來避免法律的剛性與滯后性。倫理先導(dǎo)式的人工智能治理實(shí)際上就是首先設(shè)置具有彈性空間的軟法治理體系,隨著經(jīng)驗(yàn)的積累與成熟,再作為立法資源推動(dòng)相關(guān)立法。這個(gè)過程就是人工智能倫理規(guī)范化的演變進(jìn)程。
人工智能倫理的軟法屬性,存在容錯(cuò)和自主選擇的空間,可以推動(dòng)人工智能發(fā)展創(chuàng)新,應(yīng)成為人工智能治理的首選方式。對(duì)此,在科技工具定位下的人工智能倫理治理,應(yīng)謹(jǐn)慎將倫理升階為具有強(qiáng)制性的法律規(guī)定。此時(shí),人工智能倫理規(guī)范化實(shí)際上是將底線性道德義務(wù)規(guī)范化,只要相關(guān)行為不越線即為合法行為,應(yīng)以結(jié)果導(dǎo)向,而非以行為不法為導(dǎo)向。此時(shí),人工智能倫理規(guī)范化的動(dòng)力,是確保底線性道德義務(wù)對(duì)重大利益的保護(hù)被規(guī)范所承認(rèn),防止法律規(guī)范與底線性道德義務(wù)銜接不暢所導(dǎo)致的危害,具體來說,就是要確保因人工智能造成的對(duì)生命安全、身體健康和合法財(cái)產(chǎn)的侵害能受到法律救濟(jì)。在此語境下,人工智能倫理規(guī)范化主要是通過義務(wù)性條款轉(zhuǎn)變?yōu)榫哂袕?qiáng)制效力的法定義務(wù),并主要將相關(guān)義務(wù)配置給人工智能的研發(fā)者、運(yùn)營者等主體。
(三)數(shù)字規(guī)則定位下倫理規(guī)范化的邏輯
在數(shù)字時(shí)代,人工智能對(duì)社會(huì)的影響已經(jīng)由被動(dòng)轉(zhuǎn)向主動(dòng)、由場景轉(zhuǎn)向通用、由間接轉(zhuǎn)向直接、由個(gè)別行為轉(zhuǎn)向規(guī)模行為。這引發(fā)了社會(huì)關(guān)系的系統(tǒng)性變革,形成新型社會(huì)運(yùn)作模式:模擬AI警察能夠有效誤導(dǎo)“證人”,使其提供虛假證詞。例如,AI警察可能會(huì)詢問“搶劫者是否駕駛汽車到達(dá)犯罪地點(diǎn)”,但事實(shí)上搶劫者是徒步作案。類似的誤導(dǎo)性發(fā)問直接扭曲了證人的記憶重構(gòu)過程,也為智慧審判敲響了警鐘。如果無行為能力的自然人在瀕死時(shí)無法表達(dá)自己的治療意愿,家屬和醫(yī)院可以借助AI孿生體,利用病人自己此前的醫(yī)療數(shù)據(jù)、個(gè)人信息和社交媒體來推斷他最有可能的治療偏好,但這也無異于將生死抉擇交給人工智能。
在“AI+”社會(huì),因應(yīng)人工智能的革命性影響,“算法權(quán)力”、“算法規(guī)訓(xùn)”、“代碼即法律”等已經(jīng)成為重要的學(xué)術(shù)論斷。在數(shù)字空間,算法能夠直接決定用戶的交互狀態(tài)、資源配置、損害救濟(jì)等事項(xiàng),具有鮮明的規(guī)則屬性。而且,受算法屬性的影響,算法可以瞬息、直接影響用戶權(quán)益,比任何“硬法”都還要“硬”。此外,算法服務(wù)提供者與被支配者之間缺乏溝通機(jī)制,存在權(quán)力程序的缺失,進(jìn)一步強(qiáng)化了算法權(quán)力的強(qiáng)度。
隨著人工智能對(duì)社會(huì)的全面嵌入和獨(dú)立型人工智能的發(fā)展,智能算法對(duì)人類的權(quán)力效應(yīng)已經(jīng)突破平臺(tái)等場域的限制,影響到了物質(zhì)世界。“數(shù)字人”逐漸成為人類的生存模式之一,“數(shù)字財(cái)產(chǎn)”正在成為數(shù)字時(shí)代的重要財(cái)產(chǎn),而且“腦機(jī)接口”“具身人工智能”等也在不斷推動(dòng)數(shù)字世界與物質(zhì)世界的互相嵌入。在這一過程中,人工智能發(fā)揮的作用不斷強(qiáng)化,應(yīng)用場景也在不斷增加。在這一過程中,作為用戶的人類逐漸由“主動(dòng)者”轉(zhuǎn)變?yōu)椤氨粍?dòng)者”,依賴、信賴人工智能的社會(huì)功能,接受人工智能的“支配”。這就產(chǎn)生了基于知識(shí)、信息控制而產(chǎn)生的新型權(quán)力形態(tài),影響范圍已經(jīng)超越了決策階段,轉(zhuǎn)向?qū)栴}的控制,且超越了人們的辨識(shí)能力,很容易造成誤信,產(chǎn)生對(duì)現(xiàn)實(shí)的控制效果。在社會(huì)生活中,一些人工智能已經(jīng)出現(xiàn)欺騙、操縱人類的現(xiàn)象,例如在安全測評(píng)中撒謊,引誘人類作出錯(cuò)誤決策,阿諛奉承強(qiáng)化人類的不當(dāng)認(rèn)知等,并可能產(chǎn)生操縱政治選舉的社會(huì)風(fēng)險(xiǎn)。
為更好步入“AI+”社會(huì),人類對(duì)人工智能的治理目標(biāo),已經(jīng)從人工智能安全(AI safety)轉(zhuǎn)變?yōu)閮r(jià)值對(duì)齊(AI alignment)。價(jià)值對(duì)齊作為新近提出的人工智能倫理要求,旨在確保人工智能內(nèi)在的倫理原則、目標(biāo)和價(jià)值觀與人類的目標(biāo)、倫理和價(jià)值觀保持一致性。隨著臨近人工智能與人類關(guān)系變革的“奇點(diǎn)”,人類社會(huì)普遍認(rèn)知到人工智能對(duì)社會(huì)顛覆性影響的臨近,改變?nèi)斯ぶ悄苓\(yùn)作倫理的迫切性。聯(lián)合國AI高級(jí)別咨詢機(jī)構(gòu)發(fā)布的《以人為本的人工智能治理(征求意見稿)》也在強(qiáng)調(diào)對(duì)人工智能的要求,應(yīng)當(dāng)超越“不傷害原則”,并建立更為廣泛的人工智能開發(fā)者、控制者的問責(zé)機(jī)制。
在此背景下,人工智能倫理規(guī)范化已經(jīng)不是法律對(duì)社會(huì)自治的干預(yù),而是隨著人工智能影響力的擴(kuò)張和算法規(guī)訓(xùn)效能的凸顯,一些新的法律權(quán)益逐漸產(chǎn)生。一些原本應(yīng)由用戶授權(quán)或意志參與的事項(xiàng),受到了智能算法的強(qiáng)制支配,無法自由表達(dá)個(gè)人的意志,決定自我的權(quán)益與行為。這本質(zhì)上就是社會(huì)活動(dòng)決策權(quán)的重新配置,人工智能決策開始逐漸取代人類決策。隨著數(shù)字社會(huì)結(jié)構(gòu)和運(yùn)作邏輯的變革,針對(duì)作為規(guī)范的人工智能倫理的規(guī)制重心應(yīng)由“如何修復(fù)和恢復(fù)社會(huì)”轉(zhuǎn)向“如何規(guī)訓(xùn)和塑造社會(huì)”。此時(shí),人工智能倫理規(guī)范化,已經(jīng)不是法律所規(guī)制的“底線性道德”,而是要求人工智能具備建設(shè)美好“AI+”社會(huì)的基本能力。
當(dāng)然,人工智能倫理規(guī)范化不是全部倫理的規(guī)范化,而是要求提高人工智能開發(fā)與運(yùn)行的倫理道德底線,建設(shè)“有道德”的人工智能。此時(shí)應(yīng)當(dāng)將倫理觀念注入人工智能,推動(dòng)形成仁慈、正義、非惡意的“AI+”社會(huì)生活場景。由此,為應(yīng)對(duì)未來人工智能所帶來的系統(tǒng)性、顛覆性、不可預(yù)知性的風(fēng)險(xiǎn),應(yīng)在一定程度上突破倫理自治的限制,通過法律強(qiáng)制力的引入,確保人工智能朝著人類價(jià)值倫理發(fā)展,切實(shí)落實(shí)人工智能的“價(jià)值對(duì)齊”。
將人工智能劃分為“技術(shù)工具”與“數(shù)字規(guī)則”主要是基于理論分析的理想類型構(gòu)建,在復(fù)雜的現(xiàn)實(shí)場景中,我們必須正視二者界限的相對(duì)性以及在具體應(yīng)用中的混同與疊加。實(shí)際上,絕大多數(shù)高風(fēng)險(xiǎn)與通用型人工智能系統(tǒng)往往兼具雙重屬性。例如,自動(dòng)駕駛系統(tǒng)既是輔助人類出行的技術(shù)工具,其內(nèi)置的緊急避險(xiǎn)算法又實(shí)質(zhì)上構(gòu)成了決定生命優(yōu)先級(jí)的數(shù)字規(guī)則;內(nèi)容推薦算法既是平臺(tái)優(yōu)化流量分發(fā)的商業(yè)工具,又是規(guī)訓(xùn)用戶認(rèn)知偏好與社會(huì)輿論的信息規(guī)則。
針對(duì)此類“工具”與“規(guī)則”屬性重疊的復(fù)合型人工智能,首先應(yīng)確立規(guī)則優(yōu)位的價(jià)值排序原則。當(dāng)人工智能的“工具效率”與“規(guī)則公平”發(fā)生沖突時(shí),作為數(shù)字規(guī)則的倫理規(guī)范應(yīng)優(yōu)先于作為技術(shù)工具的倫理規(guī)范。這意味著,一旦人工智能系統(tǒng)表現(xiàn)出明顯的社會(huì)動(dòng)員能力或?qū)€(gè)人權(quán)益的強(qiáng)制性支配力,即呈現(xiàn)規(guī)則屬性時(shí),即便其初衷僅為技術(shù)輔助工具,也必須中止技術(shù)中立的抗辯,轉(zhuǎn)而接受更為嚴(yán)格的實(shí)體法約束。
其次,在制度供給上實(shí)現(xiàn)軟法與硬法的協(xié)同互補(bǔ)。對(duì)于重疊屬性的人工智能,應(yīng)在底線問題上適用針對(duì)數(shù)字規(guī)則的硬法治理,通過設(shè)定法律禁區(qū)和強(qiáng)制義務(wù)確立不可逾越的紅線;而在技術(shù)創(chuàng)新與優(yōu)化層面,則保留針對(duì)“技術(shù)工具”的反身法治理空間,通過倫理審查、合規(guī)激勵(lì)等軟法機(jī)制引導(dǎo)技術(shù)向善。這種剛?cè)岵?jì)的策略,既能利用硬法遏制算法權(quán)力的濫用,又能通過軟法保持技術(shù)工具的進(jìn)化活力。
最后,應(yīng)建立基于風(fēng)險(xiǎn)等級(jí)的動(dòng)態(tài)響應(yīng)機(jī)制。隨著人工智能應(yīng)用場景的變化,其工具與規(guī)則屬性的權(quán)重會(huì)發(fā)生流變。法律應(yīng)保持敏捷性,當(dāng)一款通用人工智能從封閉的輔助工具演變?yōu)殚_放的社會(huì)基礎(chǔ)設(shè)施時(shí),治理手段也應(yīng)確保治理強(qiáng)度始終與人工智能的社會(huì)影響力相匹配,從而在復(fù)雜場景下切實(shí)實(shí)現(xiàn)人工智能與人類價(jià)值的深度對(duì)齊。
04以私法為核心的人工智能倫理規(guī)范化
基于系統(tǒng)論法學(xué)理論,“環(huán)境”變化是法律系統(tǒng)自律變化的動(dòng)力,社會(huì)環(huán)境通過與法律系統(tǒng)的溝通發(fā)揮作用,并借助溝通推動(dòng)法律系統(tǒng)的遞歸式發(fā)展。在此背景下,人工智能倫理規(guī)范化不能被簡單地定位為一個(gè)法律系統(tǒng)的建構(gòu)問題,這會(huì)忽視既有法律規(guī)范內(nèi)容對(duì)人工智能倫理的承接。實(shí)際上,人工智能倫理規(guī)范化是法律系統(tǒng)“既開放又封閉,開放以封閉為條件”這樣一種在悖論和去悖論中不斷遞歸性運(yùn)作的自我再生產(chǎn)過程。人工智能倫理具有抽象性和概括性,私法的自治性、宣示性和開放性與人工智能倫理的軟法特征相匹配。具有強(qiáng)制性的公法雖然能在人工智能倫理被嚴(yán)重違反時(shí)發(fā)揮兜底的制裁功能,但公法的謙抑性限制了它在一般情形下的適用范圍,故人工智能倫理規(guī)范化的進(jìn)程應(yīng)主要由私法承接。我們應(yīng)在保持人格權(quán)法、合同法等法律系統(tǒng)穩(wěn)定的前提下推進(jìn)人工智能倫理的規(guī)范化。
(一)私法人文精神對(duì)人工智能倫理規(guī)范化的指引
受人工智能工具邏輯和規(guī)范邏輯的雙重影響,人工智能倫理規(guī)范化呈現(xiàn)出“制度倫理化”與“倫理制度化”同時(shí)并存的特征。一方面,“制度倫理化”要求現(xiàn)有法律制度為適應(yīng)人工智能的倫理挑戰(zhàn)進(jìn)行現(xiàn)代化改造,例如傳統(tǒng)合同法中的格式條款規(guī)則,在應(yīng)對(duì)算法時(shí)需補(bǔ)充透明性、民主性等倫理內(nèi)涵。另一方面,“倫理制度化”是將新興的倫理共識(shí)(如“保護(hù)隱私安全”)上升為新型法律規(guī)則,近年我國立法中隱私權(quán)、個(gè)人信息權(quán)益的凸顯即是其典型體現(xiàn),是法律對(duì)技術(shù)發(fā)展的直接回應(yīng)。
從現(xiàn)有法律體系看,人工智能倫理的規(guī)范化不僅涉及新型法律內(nèi)容的出現(xiàn),也包括法律開放性條款內(nèi)涵的豐富。例如《民法典》人格權(quán)編中一般人格權(quán)制度可以作為人工智能倫理與法律相互嵌入的窗口。一般人格權(quán)內(nèi)蘊(yùn)人格平等、人格自由和人格尊嚴(yán)等倫理內(nèi)涵,通過制度體系的開放性,避免遺漏新生并值得保護(hù)的人格利益,吸納隨著人工智能技術(shù)發(fā)展而產(chǎn)生的新型人格權(quán)益。例如,隨著大腦與電腦、人與機(jī)器融合后的“超級(jí)人工智能”的出現(xiàn),精神完整權(quán)益等已經(jīng)具備法律保護(hù)的必要,在法無明定的情形下可以借助一般人格權(quán)實(shí)現(xiàn)倫理的法律保護(hù)。
上述人工智能倫理規(guī)范化的操作都可以在民法場景下完成。當(dāng)代民法是人文主義民法,對(duì)人工智能倫理的設(shè)定具有重要的指導(dǎo)作用。這是因?yàn)槿斯ぶ悄軅惱肀举|(zhì)上是以人類與人工智能關(guān)系為中心的新型倫理要求,且應(yīng)以“人”為核心,由此應(yīng)主要在民法場域內(nèi)實(shí)現(xiàn)人工智能倫理與法律的交融。民法體系已經(jīng)為人類的生存設(shè)置了一系列的法律規(guī)范,可以承接人工智能倫理規(guī)范化的升階,并回應(yīng)人工智能倫理規(guī)范化的標(biāo)準(zhǔn)問題,以保障人類在“AI+”社會(huì)的基本權(quán)益。
人工智能倫理規(guī)范化的核心場域之爭,本質(zhì)上是治理范式之爭。雖然當(dāng)下全球人工智能治理呈現(xiàn)出強(qiáng)監(jiān)管的公法趨勢,但這主要針對(duì)的是國家安全、數(shù)據(jù)主權(quán)及重大社會(huì)風(fēng)險(xiǎn)的底線防御。若試圖以公法為核心推動(dòng)人工智能倫理的全面規(guī)范化,將面臨治理失靈的風(fēng)險(xiǎn)。公法主要依賴行政指令與刑罰制裁,具有剛性、滯后性與謙抑性特征。面對(duì)尚未定型的技術(shù)倫理,公法不僅難以精準(zhǔn)界定違法邊界,更極易因“一刀切”的過度規(guī)制而扼殺技術(shù)創(chuàng)新。此外,公法關(guān)注的是公共秩序而非個(gè)體感受,難以回應(yīng)人工智能對(duì)個(gè)體尊嚴(yán)、自主性等倫理價(jià)值的微觀侵蝕。
相比之下,盡管私法救濟(jì)常被詬病為事后、個(gè)案,但這恰恰是其應(yīng)對(duì)不確定性風(fēng)險(xiǎn)的優(yōu)勢所在,也是其應(yīng)成為倫理規(guī)范化核心的理據(jù)。其一,私法是“人”的法律,與人工智能倫理以人為本的精神內(nèi)核高度同構(gòu)。人工智能倫理旨在防御技術(shù)對(duì)人的異化,維護(hù)人的主體性。私法提供了最直接的權(quán)利話語體系,能將抽象的倫理訴求轉(zhuǎn)化為具體的權(quán)益主張,實(shí)現(xiàn)價(jià)值對(duì)齊。其二,私法可以通過分散決策機(jī)制彌補(bǔ)公法監(jiān)管資源的不足。面對(duì)無處不在的算法,私法賦予每個(gè)用戶監(jiān)督者的地位,通過海量的個(gè)案訴訟形成對(duì)算法權(quán)力的分布式監(jiān)督網(wǎng)絡(luò),這是行政監(jiān)管難以企及的治理廣度。其三,私法的“倒逼效應(yīng)”能有效克服其事后性的局限。雖然司法裁判是事后的,但巨額侵權(quán)賠償與合同無效的法律風(fēng)險(xiǎn),會(huì)倒逼企業(yè)在研發(fā)階段主動(dòng)合規(guī),實(shí)現(xiàn)從事后救濟(jì)向事前預(yù)防的傳導(dǎo)。其四,私法的開放性條款可以充當(dāng)倫理進(jìn)入法律的柔性接口。它允許司法者在個(gè)案中根據(jù)技術(shù)發(fā)展動(dòng)態(tài)調(diào)整倫理標(biāo)準(zhǔn),從而避免公法一旦制定便難以適應(yīng)技術(shù)迭代的僵化弊端。因此,以私法為核心,輔以公法兜底,才是實(shí)現(xiàn)人工智能倫理規(guī)范化最務(wù)實(shí)且高效的路徑。
從私法角度看,人工智能倫理的內(nèi)容可以劃分為四種類型:
一是針對(duì)人工智能服務(wù)提供者行為的倫理要求,這本質(zhì)上屬于技術(shù)研發(fā)倫理,主要涉及民法領(lǐng)域自治規(guī)則、法律責(zé)任的內(nèi)容。例如,服務(wù)提供者在研發(fā)環(huán)節(jié)故意使用帶有嚴(yán)重偏見的數(shù)據(jù)集訓(xùn)練招聘算法,導(dǎo)致算法模型對(duì)特定群體產(chǎn)生系統(tǒng)性歧視。這種違背研發(fā)倫理的行為,在民法上可構(gòu)成對(duì)求職者平等就業(yè)權(quán)的侵害,應(yīng)承擔(dān)相應(yīng)侵權(quán)責(zé)任。
二是針對(duì)工具性人工智能的倫理要求,這屬于社會(huì)應(yīng)用層面的倫理規(guī)則。如可控可信和保護(hù)隱私安全,主要涉及民法領(lǐng)域權(quán)益保護(hù)。例如,一款A(yù)I“數(shù)字人”應(yīng)用在提供情感陪伴服務(wù)時(shí),未明確告知用戶且未取得同意,即抓取、學(xué)習(xí)用戶的私密對(duì)話,并將其用于后續(xù)模型的優(yōu)化。此行為違背了應(yīng)用倫理,直接侵害了用戶的隱私權(quán)。
三是針對(duì)規(guī)則性人工智能的倫理要求,其屬于社會(huì)規(guī)范層面的倫理規(guī)則。此時(shí)主要涉及民法領(lǐng)域人格權(quán)法、合同法等規(guī)范內(nèi)容。例如,外賣平臺(tái)的算法為追求極致效率而不斷壓縮配送時(shí)間,此算法規(guī)則構(gòu)成了對(duì)騎手生命權(quán)、身體權(quán)、健康權(quán)的系統(tǒng)性壓迫,在合同法上亦可因其不合理地免除或減輕平臺(tái)責(zé)任、加重騎手責(zé)任而被認(rèn)定為無效的格式條款。
四是程序性倫理規(guī)則,這是指人工智能風(fēng)險(xiǎn)溝通的程序和選擇機(jī)制,主要涉及民法場景下不同主體之間協(xié)商的組織架構(gòu)和制度保障。例如,當(dāng)平臺(tái)使用算法對(duì)用戶內(nèi)容進(jìn)行自動(dòng)刪除或?qū)~號(hào)進(jìn)行封禁時(shí),未提供透明的申訴渠道或“人機(jī)協(xié)商”的可能。這種程序性倫理的缺失,構(gòu)成了對(duì)用戶程序性權(quán)益的減損,應(yīng)通過完善平臺(tái)治理的組織法規(guī)則予以保障。
(二)人工智能倫理進(jìn)入程序法的路徑
在對(duì)工具定位下的人工智能倫理進(jìn)行法律規(guī)制時(shí),應(yīng)避免以“控制—命令”為核心的傳統(tǒng)規(guī)制路徑,轉(zhuǎn)向尊重自治與互動(dòng)的反身法規(guī)制模式,要求人工智能服務(wù)提供者在研發(fā)時(shí)自主遵循倫理規(guī)則。反身法本質(zhì)上屬于受規(guī)制的自我治理,強(qiáng)調(diào)規(guī)制對(duì)象在外在規(guī)制作用下,由規(guī)制客體轉(zhuǎn)變?yōu)橐?guī)制主體,開展受限制的自我規(guī)制。這就要求人工智能服務(wù)提供者,一方面應(yīng)當(dāng)依據(jù)行業(yè)技術(shù)優(yōu)勢,根據(jù)人工智能的行業(yè)特點(diǎn),制定自我規(guī)制的方案;另一方面需要在民法領(lǐng)域的組織法規(guī)則下開展自我規(guī)制,避免公權(quán)力對(duì)人工智能具體倫理內(nèi)容的實(shí)質(zhì)性干預(yù),“理性地制約專業(yè)理性”。
人工智能倫理在程序法層面嵌入法律系統(tǒng)已有相關(guān)立法嘗試。根據(jù)《科技倫理審查辦法(試行)》第2條的規(guī)定,涉及以人為研究參與者的科技活動(dòng),以及利用人類生物樣本、個(gè)人信息數(shù)據(jù)等的科技活動(dòng),須通過科技倫理審查。《科技倫理審查辦法(試行)》第25條規(guī)定,對(duì)可能產(chǎn)生較大倫理風(fēng)險(xiǎn)挑戰(zhàn)的新興科技活動(dòng)實(shí)施清單管理,“具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”、“面向存在安全、人身健康風(fēng)險(xiǎn)等場景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)”和“對(duì)人類主觀行為、心理情緒和生命健康等具有較強(qiáng)影響的人機(jī)融合系統(tǒng)的研發(fā)”均在清單之列,須適用專家復(fù)核程序。依據(jù)《科技倫理審查辦法(試行)》第4條設(shè)立的科技倫理(審查)委員會(huì)在初步審查后,應(yīng)當(dāng)報(bào)請(qǐng)上級(jí)主管部門進(jìn)行專家復(fù)核,專家組將對(duì)初步審查意見的合規(guī)性和合理性進(jìn)行審核,并反饋復(fù)核意見,之后科技倫理(審查)委員會(huì)再根據(jù)復(fù)核意見作出倫理審查決定。且《科技倫理審查辦法(試行)》第33條規(guī)定,初始審查決定作出后,科技倫理(審查)委員會(huì)還應(yīng)隨時(shí)監(jiān)管試驗(yàn)動(dòng)態(tài),實(shí)行跟蹤審查。
人工智能倫理由反身法模式進(jìn)行規(guī)范化,是社會(huì)系統(tǒng)分化的必然結(jié)果。社會(huì)系統(tǒng)分化,不斷強(qiáng)化社會(huì)運(yùn)作上的復(fù)雜性,導(dǎo)致法律系統(tǒng)在認(rèn)知上存在缺陷。在社會(huì)系統(tǒng)論“二階觀察”下,法律具備“規(guī)范就是規(guī)范”的封閉性,但同時(shí)封閉性以其對(duì)社會(huì)環(huán)境的開放性為條件。因?yàn)橄到y(tǒng)無法通過自我運(yùn)作實(shí)現(xiàn)與環(huán)境的連接,這就需要通過結(jié)構(gòu)耦合來實(shí)現(xiàn)不同系統(tǒng)之間的互動(dòng)。在這一互動(dòng)過程中,法律系統(tǒng)應(yīng)依托作為“回應(yīng)型法”的反身法模式,及時(shí)回應(yīng)社會(huì)系統(tǒng)中出現(xiàn)的問題。此外,反身法的規(guī)制模式實(shí)際上也是對(duì)人工智能程序性倫理規(guī)則的貫徹,可以避免直接以法律的形式明確人工智能倫理的具體內(nèi)容,而是通過間接和抽象的方式在組織機(jī)構(gòu)、能力和程序等層面完善自我治理機(jī)制,為人工智能服務(wù)提供者的倫理自治提供組織前提和程序前提。
反身法作為一種間接規(guī)制模式,強(qiáng)調(diào)通過制度設(shè)計(jì)來確保具體治理規(guī)則形成的民主性,完善不同主體之間的商談溝通機(jī)制。在人工智能倫理規(guī)范化的過程中,法律系統(tǒng)可以通過組織、程序和職權(quán)的規(guī)范來幫助其他社會(huì)系統(tǒng)實(shí)現(xiàn)民主的自我組織和自我規(guī)制。
首先,完善組織架構(gòu),建構(gòu)有助于人工智能倫理形成與優(yōu)化的組織規(guī)范。人工智能倫理治理的組織架構(gòu)可以劃分為行業(yè)自治組織和企業(yè)內(nèi)部體系。2023年頒布的《科技倫理審查辦法(試行)》在第二章對(duì)倫理治理主體進(jìn)行了系統(tǒng)規(guī)定,要求在高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等責(zé)任主體內(nèi)部建立科技倫理(審查)委員會(huì),并探索建立專業(yè)、區(qū)域性的倫理審查中心。基于此,為實(shí)現(xiàn)人工智能的倫理治理,人工智能行業(yè)應(yīng)不斷完善行業(yè)自治組織的建設(shè),明確內(nèi)部運(yùn)作流程,并根據(jù)人工智能的發(fā)展進(jìn)行敏捷治理,適時(shí)更新人工智能的倫理規(guī)則。同時(shí),人工智能服務(wù)提供者可以通過內(nèi)部組織架構(gòu),將法律對(duì)倫理的合規(guī)要求內(nèi)化為企業(yè)的內(nèi)在機(jī)制。在具體建構(gòu)時(shí),法律制度可以細(xì)化人工智能倫理委員會(huì)的成員身份構(gòu)成、運(yùn)行規(guī)則、權(quán)責(zé)機(jī)制等,開展常態(tài)化、場景化的倫理治理,以確保開發(fā)出負(fù)責(zé)任、可信的人工智能。此外,為實(shí)現(xiàn)政府、行業(yè)組織、企業(yè)組織等組織體之間的信息互通、科學(xué)分工,應(yīng)完善組織間的協(xié)同治理機(jī)制,完善倫理治理規(guī)則備案、風(fēng)險(xiǎn)報(bào)告、舉報(bào)投訴、配合倫理審查等協(xié)同機(jī)制。
其次,完善人工智能倫理治理的程序規(guī)則。只有在子系統(tǒng)內(nèi)建構(gòu)民主化的商談結(jié)構(gòu),才能真正推動(dòng)反思在子系統(tǒng)內(nèi)予以落實(shí),并確保反身法程序架構(gòu)產(chǎn)生的實(shí)質(zhì)結(jié)果獲得社會(huì)認(rèn)同。而不同主體間理性商談則需要滿足“充分開放、人人平等、真誠表達(dá)、自由溝通”的外在條件,以保障商談程序的合理性和公正性,推動(dòng)商談結(jié)果具有可接受性。為滿足倫理協(xié)商的外在條件,人工智能服務(wù)提供者作為自我治理的責(zé)任主體,應(yīng)盡力實(shí)現(xiàn)人工智能的透明性和可解釋性,奠定人工智能具體倫理內(nèi)容的商談前提。平等協(xié)商需要從兩個(gè)方面進(jìn)行建構(gòu),一是政府等公權(quán)力機(jī)構(gòu)應(yīng)當(dāng)避免以命令形式開展治理,要與人工智能服務(wù)提供者開展平等協(xié)商;二是人工智能服務(wù)提供者作為“數(shù)字守門人”和“數(shù)字空間私權(quán)力的服務(wù)提供者”,要與人工智能使用者進(jìn)行平等協(xié)商。針對(duì)一些高風(fēng)險(xiǎn)、通用性的人工智能,可以借鑒平臺(tái)規(guī)則等方式進(jìn)行公示。人工智能服務(wù)提供者應(yīng)嘗試將算法內(nèi)蘊(yùn)的倫理用文字表述,并進(jìn)行公示征求意見,并根據(jù)意見對(duì)智能算法進(jìn)行優(yōu)化。
此外,科學(xué)設(shè)定人工智能場景下的雙層職權(quán)體系。在人工智能領(lǐng)域,因?yàn)樗惴ㄇ度肷鐣?huì)的各個(gè)方面,且通用式人工智能已經(jīng)成為發(fā)展方向。這就衍生出具有全社會(huì)影響力的“私權(quán)力”,形成對(duì)用戶的技術(shù)支配關(guān)系。這就需要解決算法決策權(quán)在市民社會(huì)和政治國家之間如何分配的問題。在此背景下,既要關(guān)注“公權(quán)力—私權(quán)力”之間的職權(quán)設(shè)定,還要重視“私權(quán)力—私權(quán)利”之間的職權(quán)關(guān)系。在第一層職權(quán)設(shè)定中,公權(quán)力一般僅建構(gòu)相關(guān)系統(tǒng)的運(yùn)作程序,激勵(lì)與督促相關(guān)主體開展自我治理。但是,公權(quán)力機(jī)關(guān)作為私權(quán)利的維護(hù)者與保護(hù)者,也應(yīng)關(guān)注“私權(quán)力—私權(quán)利”關(guān)系,設(shè)置人工智能服務(wù)提供者的行為邊界。這就涉及第二層的職權(quán)設(shè)定。雖然公共機(jī)構(gòu)將數(shù)字空間治理權(quán)力分享給私主體,要求其進(jìn)行自我規(guī)制,但為保護(hù)私權(quán)利主體的權(quán)益,人工智能服務(wù)提供者在借助算法進(jìn)行數(shù)字空間資源配置、權(quán)利設(shè)定時(shí),應(yīng)遵循“法律保留”的相關(guān)要求,避免私權(quán)力不當(dāng)“竊取”公權(quán)力機(jī)關(guān)的職權(quán),也不能不當(dāng)限制用戶的基本權(quán)利,例如數(shù)字財(cái)產(chǎn)制度設(shè)置和隱私計(jì)算等。這就要求公權(quán)力機(jī)關(guān)盡快填補(bǔ)“治理赤字”,推動(dòng)民法典的適數(shù)化改造,以避免私權(quán)力的不當(dāng)“補(bǔ)位”。
(三)人工智能倫理進(jìn)入實(shí)體法的路徑
在實(shí)踐中,人工智能不當(dāng)發(fā)揮“規(guī)范效能”并造成嚴(yán)重負(fù)面影響的情形經(jīng)常出現(xiàn)。“深度偽造”“人工智能生成內(nèi)容幻覺”“大模型歧視”等現(xiàn)象,已經(jīng)嚴(yán)重影響到數(shù)字社會(huì)的生態(tài),直接損害了相關(guān)主體的權(quán)益。這背后隱含的是算法權(quán)力在行為規(guī)制、數(shù)字空間資源配置等層面的濫用,對(duì)用戶民事權(quán)利的忽視與損害超越了“工具化”的范疇。由此,人工智能倫理在一定程度上轉(zhuǎn)化為權(quán)力運(yùn)行的倫理要求,不僅在內(nèi)容上出現(xiàn)了擴(kuò)張,在規(guī)制強(qiáng)度上也需要更高的要求。這就對(duì)人工智能倫理的法律應(yīng)對(duì)提出了新的要求,并需要在實(shí)體法層面予以強(qiáng)制性落實(shí)。人工智能倫理在法律層面的實(shí)體化,主要體現(xiàn)為以下方面:
第一,人工智能倫理生成新型人格權(quán)益。人格權(quán)法的價(jià)值即人的主體價(jià)值。而人工智能倫理規(guī)范化即解決“人工智能如何對(duì)待人”的問題,核心在“AI+”社會(huì)實(shí)現(xiàn)人的完整人格利益。對(duì)此,需要關(guān)注人工智能倫理與人格權(quán)益的交融關(guān)系,明確人工智能在人格層面的法律屬性。在實(shí)踐中,因應(yīng)人工智能發(fā)展,一些新型權(quán)利類型開始出現(xiàn),最為典型的是數(shù)字隱私權(quán)、個(gè)人信息權(quán)益等。在“AI+”社會(huì),人工智能侵入了人類自由、隱私的場域,形成了新型支配關(guān)系。人成為“玻璃球中的人”“數(shù)字人”,成為被技術(shù)支配的對(duì)象。在此背景下,人工智能倫理生成的新型權(quán)利多數(shù)情形下是“對(duì)抗性”“防御性”權(quán)利,主要是為了實(shí)現(xiàn)人格尊嚴(yán)和個(gè)人自主發(fā)展,例如離線權(quán)、數(shù)據(jù)到期權(quán)、被遺忘權(quán)、可攜帶權(quán)等新型權(quán)利,這些新型權(quán)利的出現(xiàn)是為了應(yīng)對(duì)數(shù)字權(quán)力的擴(kuò)張,目的在于強(qiáng)化人類的主體性和人格完整性。人工智能倫理的軟法約束是無法實(shí)現(xiàn)這一目的,國家必須以法律的形式提升人類擺脫人工智能等技術(shù)權(quán)力的能力。此外,這些新型權(quán)利會(huì)隨著人工智能對(duì)人類社會(huì)嵌入的進(jìn)一步深化而不斷出現(xiàn),只要人類在公平、自由、主體性等領(lǐng)域的某方面受到影響,就應(yīng)賦予人類相應(yīng)權(quán)利予以對(duì)抗。例如,隨著腦機(jī)接口技術(shù)的發(fā)展,精神隱私與自決權(quán)等新型權(quán)利應(yīng)予以重視。
第二,人工智能倫理生成新型法律義務(wù)。人工智能具備高度的社會(huì)嵌入性、技術(shù)的非價(jià)值中立性以及權(quán)力集中性等特征,具備道德物化的天然屬性。在此背景下,人工智能服務(wù)提供者不同于一般的技術(shù)研發(fā)者,應(yīng)被視為“AI+”社會(huì)治理的重要參與者,對(duì)人工智能的研發(fā)、運(yùn)作應(yīng)負(fù)有積極的作為義務(wù),例如定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理,建設(shè)違法信息詞庫,優(yōu)化調(diào)整人工智能等,并確保人的主體地位。人工智能服務(wù)提供者的作為義務(wù),在《關(guān)于切實(shí)加強(qiáng)網(wǎng)絡(luò)暴力治理的通知》等規(guī)范中又被稱為“主體責(zé)任”。所謂主體責(zé)任,即要求社會(huì)主體要承擔(dān)與其角色定位相適宜的主體義務(wù)。這背后反映的是人工智能服務(wù)提供者身份的變革,日漸轉(zhuǎn)變?yōu)閿?shù)字社會(huì)的治理主體,并由此衍生出一系列與身份相對(duì)應(yīng)的新型義務(wù)。因?yàn)槿斯ぶ悄芊?wù)提供者屬于私法主體,其新型法律義務(wù)作為私法義務(wù),可以實(shí)現(xiàn)與侵權(quán)法規(guī)范的對(duì)接,也同時(shí)涉及行政處罰的相關(guān)規(guī)定。但歸根到底,都是為了督促相關(guān)主體對(duì)民事權(quán)益的充分保護(hù)。
第三,將一些違反倫理的行為上升為法律禁止性行為。人工智能違反倫理的行為僅在人工智能具備規(guī)范效能的場景下才應(yīng)予以法律禁止,其目的不是為了維護(hù)社會(huì)安全,而是建設(shè)更契合人類生存的“AI+”社會(huì)。此時(shí),人工智能與用戶之間存在權(quán)力關(guān)系,可以直接決定用戶權(quán)益,而用戶缺乏選擇權(quán)限,難以進(jìn)行自我救濟(jì)。從現(xiàn)有立法看主要存在以下類型:一是,違反公平的行為類型。在數(shù)字空間,算法歧視已經(jīng)成為法律規(guī)制的重要內(nèi)容。例如《生成式人工智能服務(wù)管理暫行辦法》等規(guī)范要求避免通過技術(shù)手段對(duì)相關(guān)主體進(jìn)行歧視或不合理限制。二是,嚴(yán)重貫徹工具倫理的行為類型。工具理性的產(chǎn)生主要是因?yàn)榭萍及l(fā)展的數(shù)學(xué)化傾向和理性觀念自身的內(nèi)在傾向,目的在于追求手段與目的之間關(guān)系的最具效率的路徑。因?yàn)槿斯ぶ悄芤?guī)訓(xùn)效能的存在,已經(jīng)嚴(yán)重影響相關(guān)主體的權(quán)益,動(dòng)搖人的主體性,成為法律規(guī)制的重點(diǎn)。例如《關(guān)于落實(shí)網(wǎng)絡(luò)餐飲平臺(tái)責(zé)任切實(shí)維護(hù)外賣送餐員權(quán)益的指導(dǎo)意見》等規(guī)范對(duì)避免最嚴(yán)算法、設(shè)置誘導(dǎo)用戶沉迷、過度消費(fèi)的算法模型進(jìn)行了規(guī)定。三是,嚴(yán)重違反人類主體性的行為。人工智能的類人性在一定程度上會(huì)影響人類的主體性,甚至?xí)绊憽⑻娲祟愡M(jìn)行決策。這會(huì)引發(fā)人類的主體性危機(jī),危害人的自然發(fā)展。例如《歐盟人工智能法》第5條規(guī)定了對(duì)人潛意識(shí)的影響、特定情形下的社會(huì)評(píng)價(jià)、記錄人的情緒、利用人的弱點(diǎn)等人工智能禁用的領(lǐng)域。
需要注意的是,即便在人工智能場景中科技倫理重要性在不斷增加,也不宜將之直接定位為法律原則。從功能上看,法律原則具備指導(dǎo)、評(píng)價(jià)和裁判三大功能。而倫理作為與法律相對(duì)應(yīng)的規(guī)制體系,內(nèi)涵過于龐雜,無法像公平原則、誠信原則等發(fā)揮出相應(yīng)法律功能,同時(shí)也會(huì)與《民法典》所明確的平等原則、公平原則、誠信原則等在內(nèi)涵上產(chǎn)生重復(fù)。此外,如果一般性地將倫理視為法律原則,容易造成法律與倫理的混同,違反了兩者分化的發(fā)展趨勢,導(dǎo)致法律的泛道德化,必將損害自由。
(四)人工智能倫理可以通過開放式規(guī)范進(jìn)入法律系統(tǒng)
民法典貫徹人文主義,也具有開放性,能夠?qū)ζ渌蓽Y源進(jìn)行開放和包容。在此基礎(chǔ)上,民法系統(tǒng)可以借助法釋義規(guī)則,充分發(fā)揮認(rèn)知上的開放性來回應(yīng)人工智能倫理問題,并實(shí)現(xiàn)人工智能倫理與法律行為、財(cái)產(chǎn)歸屬、責(zé)任配置的直接連接,間接推動(dòng)人工智能倫理發(fā)揮法律的規(guī)范功能。
在合同法領(lǐng)域,人工智能涉及合同法的各個(gè)層面,在技術(shù)開發(fā)合同中可以是合同的標(biāo)的,在技術(shù)服務(wù)合同中可以是履行手段,在智能合約中又成為合同本身。因?yàn)槿斯ぶ悄茉诤贤瑘鲇蚪巧ㄎ坏亩鄻有裕鋫惱硪?guī)范需要根據(jù)具體情形選擇不同規(guī)范發(fā)揮法律效能。一是,人工智能倫理借助公序良俗規(guī)范對(duì)合同進(jìn)行“內(nèi)容審查”。此種入法路徑主要涉及人工智能作為合同標(biāo)的、智能合約的情景,旨在通過否定相關(guān)行為法律效力的方式,避免違反倫理的人工智能在社會(huì)層間的流通。此時(shí),人工智能倫理可以借助《民法典》第153條違背公序良俗的民事法律行為無效之規(guī)定,進(jìn)入法律系統(tǒng)影響相關(guān)行為的效力。二是,人工智能倫理借助誠實(shí)信用原則等對(duì)合同進(jìn)行“形式審查”。在實(shí)踐中,有些網(wǎng)絡(luò)用戶借助人工智能作為“外掛”,違背人工智能倫理,開展“超頻的定向交易”,獲取“不當(dāng)?shù)挠螒蝮w驗(yàn)”等,會(huì)損害網(wǎng)絡(luò)生態(tài),侵害其他用戶權(quán)益。對(duì)此,人工智能倫理可以借助具備審查合同行使行為功能的誠信原則,進(jìn)入法律系統(tǒng)并影響相關(guān)法律行為的效力。三是,人工智能倫理在格式條款語境下借助公平原則影響相關(guān)法律行為的效力。公平公正原則是重要的人工智能倫理,為避免沖擊意思自治,尊重市場精神,應(yīng)將其發(fā)揮效力的場景限縮在《民法典》第149條格式條款場景,可以作為判斷平臺(tái)規(guī)則效力的依據(jù)。
在財(cái)產(chǎn)法領(lǐng)域,人工智能倫理可以成為數(shù)字財(cái)產(chǎn)配置的重要參考。人工智能在社會(huì)運(yùn)作過程中會(huì)生成諸多數(shù)據(jù),成為數(shù)字時(shí)代重要的生產(chǎn)資料,并形成了新型財(cái)產(chǎn)形式。但是,數(shù)據(jù)財(cái)產(chǎn)如何歸屬、收益如何分配在現(xiàn)有立法中并無明確的法律規(guī)定。在實(shí)踐中,數(shù)據(jù)是所有在數(shù)字化平臺(tái)上的用戶生產(chǎn)出來的,且被少數(shù)數(shù)字資本家事實(shí)占有。人工智能服務(wù)提供者傾向于建立數(shù)據(jù)鴻溝,獨(dú)享數(shù)據(jù)的社會(huì)紅利和收益。這違背了人工智能促進(jìn)公平公正的倫理原則,阻滯全社會(huì)公平共享人工智能帶來的益處,且會(huì)不斷強(qiáng)化用戶的工具性。對(duì)此,我們應(yīng)嚴(yán)格規(guī)范人工智能服務(wù)提供者的數(shù)據(jù)控制權(quán),重視數(shù)據(jù)的公平利用,推動(dòng)數(shù)據(jù)收益的社會(huì)共享。此時(shí),人工智能倫理可以借助《民法典》第6條公平原則進(jìn)入法律體系,在缺乏法律規(guī)則的前提下,發(fā)揮法律指引、裁判功能,并借助分配正義、交換正義等公平原則之內(nèi)涵,評(píng)價(jià)數(shù)據(jù)財(cái)產(chǎn)機(jī)制能否反映不同主體的勞動(dòng)貢獻(xiàn),判斷數(shù)據(jù)資源采集、數(shù)據(jù)加工、數(shù)據(jù)資源交易機(jī)制的可行性。
在侵權(quán)法領(lǐng)域,人工智能倫理可以借助一般侵權(quán)條款進(jìn)入法律體系。在德國和我國臺(tái)灣地區(qū),“故意以違反公序良俗的方式加害他人”成為重要的侵權(quán)類型之一,擴(kuò)大了法律保護(hù)的對(duì)象。雖然我國未明確公序良俗作為人工智能倫理進(jìn)入侵權(quán)責(zé)任法的通道,但是可以借助《民法典》第1165條一般侵權(quán)條款作為侵權(quán)責(zé)任的認(rèn)定依據(jù)。在對(duì)一般侵權(quán)條款進(jìn)行解釋時(shí),為避免一般條款的抽象和保護(hù)范圍的擴(kuò)大化,有必要將故意背俗侵權(quán)納入一般條款的解釋架構(gòu)。在現(xiàn)有階段因?yàn)橐延腥斯ぶ悄軅惱硪?guī)則上升為保護(hù)性法律規(guī)范,例如《個(gè)人信息保護(hù)法》第24條對(duì)算法價(jià)格歧視等行為的禁止。在此背景下,人工智能倫理進(jìn)入侵權(quán)責(zé)任領(lǐng)域,存在違反強(qiáng)制性規(guī)定侵權(quán)和故意背俗侵權(quán)兩種解釋通道。在侵權(quán)法領(lǐng)域,保護(hù)人工智能倫理的違反強(qiáng)制性規(guī)定,需要滿足“設(shè)置有具體的行為義務(wù)”“保護(hù)私益之目的”的適格條件,才可成為侵權(quán)責(zé)任認(rèn)定的依據(jù)。
05邁向“人機(jī)共生”時(shí)代的人工智能倫理規(guī)范
在“AI+”社會(huì),人工智能倫理規(guī)范化已是客觀的社會(huì)現(xiàn)象。其根源在于人工智能正經(jīng)歷道德物化與規(guī)則物化的雙重趨勢,使其超越了純粹的技術(shù)工具范疇,異化為形塑社會(huì)秩序的數(shù)字規(guī)則和影響人類決策的交互對(duì)象。這種轉(zhuǎn)變迫使法律規(guī)制的目標(biāo)作出迭代:必須從傳統(tǒng)的“安全風(fēng)險(xiǎn)防控”轉(zhuǎn)向“人類價(jià)值對(duì)齊”,從“損害填補(bǔ)”轉(zhuǎn)向“人機(jī)共生秩序建構(gòu)”。為實(shí)現(xiàn)這一目標(biāo),僅依賴行政管制的思路已顯不足,必須轉(zhuǎn)向以私法人文精神為內(nèi)核的治理路徑。私法以其自治性、宣示性和開放性,為承接倫理規(guī)范化提供了核心場域。
人工智能倫理進(jìn)入私法系統(tǒng),循著其工具與規(guī)則的雙重面向而展開。其一,針對(duì)AI的技術(shù)工具面向,倫理規(guī)范化宜借助反身法模式,通過建構(gòu)科技倫理(審查)委員會(huì)等程序性架構(gòu),實(shí)現(xiàn)受規(guī)制的自我治理。其二,針對(duì)AI的數(shù)字規(guī)則面向,倫理規(guī)范化必須深入實(shí)體法,通過增設(shè)新型權(quán)利、科予新型義務(wù)以及設(shè)定禁止性規(guī)定,實(shí)現(xiàn)對(duì)算法權(quán)力的實(shí)質(zhì)性約束。在此過程中,民法典的人格權(quán)法、合同法與侵權(quán)法等制度中的開放性條款,將發(fā)揮關(guān)鍵的篩選與對(duì)接功能,確保法律系統(tǒng)在保持自身封閉性的同時(shí),能持續(xù)回應(yīng)人工智能倫理的規(guī)范化這一時(shí)代命題。
*本文章僅限學(xué)習(xí)交流使用,版權(quán)歸原作者所有。
??
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.