![]()
生成式人工智能侵權誰負責?
作者:鄧建鵬,中央財經大學法學院教授、金融科技法治研究中心主任。以下內容來自中國社會科學網-中國社會科學報。

近年來,以ChatGPT和DeepSeek等為代表的國內外生成式人工智能的崛起,在技術層面引發顛覆性變革,也給現行侵權責任體系帶來新挑戰。既有的監管規則試圖在傳統侵權法框架內厘清其責任歸屬,將應用環節簡單劃分為“提供”與“使用”,并以技術服務提供者作為核心規制對象,但隨著技術日益深入多元產業場景,這類“二分法”思維明顯不足,亟須跳出既定學術范式和監管框架,重新審視人工智能侵權的責任認定邏輯。
責任主體“三分框架”的擴展
現行《生成式人工智能服務管理暫行辦法》沿用“提供者”和“使用者”的二元責任主體結構,然而在產業深度融合背景下,這一分類難以覆蓋各類主體。生成式人工智能輸出結果受到訓練數據質量、算法架構、實時調取數據、用戶指令等多因素影響,特別是部署者即通過接口調用、本地部署、系統集成等方式將基礎模型適配于具體場景的主體——已成為影響輸出內容的關鍵一方。部署者一方面是人工智能的使用者,另一方面又利用人工智能提供更精細的專業服務。主體分類的簡單化導致責任義務范圍及合理注意義務標準模糊,進而影響責任歸屬判定。如金融機構利用大語言模型開發智能投顧產品,在此過程中通過自有客戶數據對模型微調,并嵌入風控邏輯。若生成的投資建議導致客戶嚴重損失,此時責任是由原模型提供者還是部署者承擔?顯然,部署模型并對其場景化適配的金融機構,其角色遠超出純粹“使用者”范疇,而更接近共同控制者的身份。人工智能輸出的結果受模型和數據共同影響,其責任歸屬也應按照過錯程度合理分配。
因此,有必要確立三類責任主體:服務提供者(開發并供應基礎模型)、部署者(場景適配和系統集成)和使用者(最終生成內容的使用)。法律依據其實際控制力和影響力重構義務與責任,而非僵化固守傳統分類。
過錯認定困境及其化解
生成式人工智能的侵權行為在過錯認定層面遭遇障礙,核心矛盾在于“算法黑箱”與法律歸責所需可解釋性之間的張力。傳統侵權法要求對行為人主觀過錯進行判斷,但多個責任主體、算法決策的不透明性、隨機性使故意或過失的認定極為困難。
為此,可考慮通過以下路徑緩解該困境:首先是算法透明度的制度推進。監管機構未來可通過規則指引,要求服務提供者和部署者公開基礎算法的設計原則、訓練數據的類型及可能的偏差范圍,并提交算法備案和透明度報告。其次是行為對比標準的引入。通過將生成式人工智能的內容輸出與同類系統或在相同情境下“合理人”的預期行為進行比對,間接推斷其是否存在過錯。最后是歷史行為分析。借助系統日志和歷史輸出記錄,審查其是否曾出現相似侵權內容,或是否已通過反饋機制進行過修正。如某模型多次輸出侵權文本卻未被修正,可推定服務提供者存在過失。這些方式未必能徹底打開“黑箱”,但基本可在現有技術條件下建立相對合理的過錯推定框架。
共同侵權與連帶責任的
適用與限制
在多元主體參與的內容生成鏈條中,單一主體往往難以獨立導致損害結果。尤其在生成式人工智能深度嵌入學術研究、金融或醫療等各專業領域時,其行為可能涉及算法偏差、數據污染、部署不當、惡意使用等多重因素。例如,某在線醫療咨詢平臺使用大模型提供初步診斷建議,因模型過度依賴已有歷史數據,導致對特定人群的心血管病風險評估連續出現錯誤,引發多起訴訟。在此類案件中,基礎模型提供者、本地化部署的醫療科技公司以及最終使用該生成內容作出簡易診斷的平臺,均成為共同被告。此時,傳統單獨責任模式在此類結構性侵權中難以適用。對此,應更多適用共同侵權與連帶責任制度,尤其在部署者調取外部數據接口、修改模型參數,或使用者惡意誘導生成侵權內容等情形中。一旦服務提供者或部署者明知或應知風險卻未采取合理防范措施,則可能構成共同侵權。
我國《民法典》第1168條至第1175條為多數人侵權提供了豐富的制度資源,可針對生成式人工智能場景進行適配化解釋。例如,若多個生成式人工智能相關責任主體無意思聯絡但分別實施侵權行為造成同一損害,且各行為均足以造成全部損害的,應適用連帶責任(《民法典》第1171條)。若二人以上分別實施侵權行為造成同一損害,能夠確定責任大小的,各自承擔相應責任;難以確定責任大小的,平均承擔責任(《民法典》第1172條)。在生成式人工智能侵權中,由于輸出內容的多因性,往往更符合《民法典》第1172條的按份責任情形,但若某一主體(如部署者)對輸出內容具有決定性控制,則仍需承擔主要責任。
不過,連帶責任的適用應審慎,避免挫傷創新企業的積極性。例如,模型被某第三方部署于自動化新聞寫作并生成大量虛假信息,原始開發者是否應承擔連帶責任?從技術可控性和經濟效率角度,除非原模型存在明顯設計缺陷或已知漏洞未修補,否則不應過度追溯至原始開發者。總之,侵權責任界定應在鼓勵企業創新與保護社會公益間找到平衡點,避免使開源模型開發者陷入無謂訟累。
免責事由的轉型
近年來,一些學者主張生成式人工智能可完全適用傳統網絡服務的“通知—刪除”規則,但學者可能忽視了生成式人工智能內容生成主動性及其不可預測性的差異。以人工智能繪畫軟件平臺為例,用戶通過輸入文本提示詞生成肖像圖片,若用戶故意輸入他人姓名及誹謗性描述,誘導人工智能生成對應圖像,系統很可能輸出侵權內容。此時,若僅因人工智能繪畫軟件平臺接到通知后刪除圖片就完全免責,顯然無法彌補對受害人人格權的損害。
因此,應當構建有限度、分層級的免責機制,重點考量“合理控制能力”和“技術可行性”。首先,若服務提供者或部署者能證明已采取當前技術條件下一切合理措施(如數據清洗、合規過濾、風險提示、實時監控等),仍無法避免某些生成的內容侵權,可部分或全部免除責任。其次,及時修正與反饋機制的有效性。若責任主體證明在接到通知后及時刪除侵權內容或調整模型,可作為減輕責任的事由。最后,合規體系的有效性作為免責考量因素。技術研發企業若能證明自身已建立完備的合規流程并嚴格遵循行業標準,在發生無法預見的侵權結果時應予以責任減免。如企業在大模型中引入“生成溯源”技術,對關鍵輸出提供數據來源標注,可以極大降低虛假信息和版權爭議的風險,這類技術創新應成為減免責任的重要考量因素。
延展閱讀
人工智能產品侵權,使用者有錯嗎?
作者:竇海陽,中國社會科學院法學研究所研究員。內容來源:中國社會科學網-中國社會科學報

隨著人工智能技術的不斷發展,在家居、出行、醫療等眾多領域中,裝載人工智能系統的產品正逐漸增多。這類產品的應用場景,也從最初的專業人員與特定領域,擴展至普通民眾的日常生活之中。在此背景下,當人工智能產品在使用過程中造成他人損害時,使用者是否仍應像使用傳統產品那樣承擔責任,成為一個亟須探討的問題。對此,有的觀點主張使用者不應承擔責任,因為人工智能系統的行為完全由生產者控制;而有的觀點則認為,使用者作為實際操作乃至“再訓練”主體,應與生產者承擔相同類型的責任。下文嘗試對此爭議予以辨析。
人工智能系統
如何影響產品使用者
人工智能系統可區分為“輔助型”與“替代型”。前者如醫療人工智能診斷或司法材料檢索工具,是由自然人在系統輔助下作出最終判斷。這類系統的使用場景典型體現在某專業領域專家在使用該類產品時借助其系統作出判斷,如醫生或法官,他們本身具備專業的判斷能力,將人工智能系統作為工具以提升決策效率、減少偏見與隨意性。例如,人工智能診療系統提供的每個判斷都需醫務人員再確認才能實施,其作用限于知識輔助和程序優化,并不直接輸出確定的結論。相反,替代型系統,如有條件的自動駕駛汽車,則在設計運行范圍內完全替代人類執行任務(如動態駕駛),用戶僅需在緊急情況下接管。這兩類系統的區別對使用者產生不同的影響:輔助型強調使用者的最終決策與責任,而替代型弱化了人的實時干預,從而也使責任承擔機制呈現差異。此外,人工智能決策輔助工具并非簡單復制人類能力,而是經常會超越人類,處理復雜模式并不以直觀的方式推理,這雖然提升了能力,但也可能降低用戶的職業警惕,甚至使其盲目追隨自動化決策,導致原本正確的判斷被機器扭轉。
盡管人工智能系統加裝到產品上顯著改變了產品的功能特性與用戶體驗,但并未改變產品使用者在法律上的地位。產品用戶無論是個人消費者還是專業領域的專家,并未因使用人工智能產品而轉變為生產者或純粹的受眾,其法律身份與責任基礎保持不變。生產者仍是決定人工智能系統安全特性的核心行為者,負責設計、出廠、運行維護及危險控制,而用戶則需對因自身不當使用造成的損害承擔過錯責任。不能將用戶與生產者置于同一責任層面,因為技術危險源仍由生產者掌控。因此,人工智能的使用并未顛覆現有責任框架,用戶的地位依然根植于其使用行為與過錯認定,而非技術本身的自主性。
人工智能系統運用是否
改變了對使用者過錯的判斷
過錯判斷的核心在于行為人是否違反了合理的注意義務,其認定以“可預見性”為前提。過錯即行為人能夠預見到自己的行為可能對受保護的法益造成侵害,卻未采取合理措施避免該侵害。可預見性并非指個案中當事人的主觀能力,而是指向一個抽象的“理性人”標準,即基于當代社會各行各業所積累的知識、經驗、能力和勤勉程度,判斷行為人是否應當預見風險。可預見性要求行為人對其行為的風險進行積極的調查了解,調查范圍需涵蓋行為風險所及的合理期間。這里的風險是指某類傷害危險,而非極為具體的損害細節。合理注意義務要求行為人根據風險大小采取相應措施,風險越大,調查了解義務越重。總之,過錯判斷的基本原理是通過理性人標準和行為風險的可預見性,衡量行為人是否盡到了合理的注意義務。
人工智能的介入為使用者過錯判斷帶來了新的挑戰。人工智能系統在產品中的應用改變了傳統的決策過程和行為風險的可預見性。一方面,人工智能的“技術黑箱”特性使其決策過程難以理解和預測,在一定程度上動搖了可預見性的基礎。例如,人工智能的錯誤可能源于其自主學習和統計推理過程,而非使用者的直接行為,這使得傳統的可預見性標準難以直接適用。另一方面,人工智能的介入改變了使用者的注意義務內容。使用者不僅需要了解物的性能和維護要求,還需要對人工智能系統的運行機制、潛在風險和限制有所了解。注意義務的重心從使用者對自身行為的審慎注意,轉向對人工智能系統的審查、驗證和監督。此外,人工智能的風險控制力部分地從使用者轉移至提供者,使用者的可預見性和可避免性往往以提供者履行信息告知和提供應對手段為前提。如果提供者未充分告知使用規范或未提供必要的安全更新,使用者可能不承擔相應的注意義務。因此,盡管人工智能的介入并未完全顛覆過錯判斷的基本原理,但過錯判斷的相關標準仍需在專家和普通人之間作出適應性調整。
專家在使用人工智能系統時,其過錯判斷需基于更高的注意義務標準。專家因擁有更多的知識和技能從事更具專業性的行為,因此其注意義務要求高于普通人。在人工智能系統介入后,專家的注意義務內容發生較為明顯的變化。以醫療人工智能為例,醫師的注意義務不再僅限于傳統的診療慣例,還需涵蓋對人工智能系統的審查、監督等,且需要根據醫療人工智能的發展階段調整其注意義務標準。
普通人在使用人工智能系統時,其過錯判斷需基于差異化注意義務標準。普通人的注意義務內容因其使用人工智能的類型、場景和控制力而異。對于輔助型人工智能,使用者仍需參與決策和監督,因此負有較高的注意義務;對于替代型人工智能,使用者的注意義務重心轉向系統檢查和使用規范的遵守。此外,使用者需按照提供者的指示使用人工智能,包括安裝更新、控制輸入數據質量和應對系統警示。普通使用者的注意義務還受其身份影響:商業使用者因具有一定的知識和風險控制手段,負有較高的注意義務;非商業使用者(如消費者)的注意義務相對較低,但仍需按預期用途使用系統并對明顯風險采取應對措施。需要注意的是,使用者的注意義務并非絕對,需考慮其實際控制力和信息可得性。如果提供者未履行信息告知或更新義務,使用者的注意義務可能減輕。
展望未來,當下對于產品使用者過錯判斷的困難,隨著人工智能技術的不斷發展將逐步得以克服,尤其是在系統可解釋性、透明度不斷增強的背景下。然而,技術解決能力的提高并不意味著過錯判斷問題的解決可以一勞永逸。相反,法律框架中關于使用者注意義務的標準也需隨技術迭代不斷調適。在技術尚不成熟的階段,設置較低的注意義務有助于鼓勵技術應用與推廣,而當技術趨于穩定、解釋機制日益完善時,則可能要求使用者承擔更高的監督和干預義務,以平衡行為自由、受害人保護與風險控制之間的張力。
—— EDN ——
免責聲明:本文章僅限學習交流使用,版權歸原作者所有。
![]()
服務國家戰略,專注高校科研/科技成果轉化
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.