<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      程嘯:論生成式人工智能侵害名譽權的侵權責任 | 財經法學202602

      0
      分享至

      【作者】程嘯(清華大學法學院教授)

      【來源】北大法寶法學期刊庫《財經法學》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


      內容提要:生成式人工智能服務提供者對于保證其輸出內容的真實性和準確性具有技術上的控制力與法律義務。生成式人工智能的內容輸出是提供者自身所實施的行為。提供者并非單純的網絡技術服務提供者,不能援引網絡侵權責任中的通知規則與知道規則免除責任,而應依據過錯責任原則為自己的行為負責任。生成式人工智能直接針對其名譽被涉及的用戶的內容輸出不構成發布行為,其輸出的內容只有為被侵權人之外的第三人知悉時,該內容的輸出才構成發布行為。該類輸出內容既包括事實陳述,也包括意見表達,提供者可以主張真實性抗辯與公正評論抗辯。提供者對于侵害名譽權的過錯包括故意和過失。對于過失的判斷,應當首先依據法律規定的義務適用違法視為過失規則;沒有法律規定的義務或者符合法定要求時,應當結合案件具體事實,根據《民法典》第998條的動態系統論與第1026條列舉的考慮因素,按照侵害行為發生時的技術發展水平來認定提供者是否具有過失。

      關鍵詞:生成式人工智能;提供者;名譽權;侵權責任;過錯

      目次

      一、問題的提出

      二、內容輸出是否是生成式人工智能服務提供者的行為

      三、輸出內容是否構成侵害名譽權行為的認定

      四、生成式人工智能提供者過錯的判斷

      五、結語

      問題的提出

      生成式人工智能(generative artificial intelligence)是一類能夠根據輸入數據自動生成新內容的人工智能系統,它通過學習大量現有數據中的模式、結構和特征,能夠創造出新的文本、圖像、音頻、視頻等形式的內容。在目前世界上具有代表性的生成式人工智能中,文本生成類主要包括OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini、Meta的LLaMA、深度求索的DeepSeek、阿里的千問、字節跳動的豆包及百度的文心一言;圖像視頻生成類包括OpenAI的DALL-E、Sora,Google的Imagen、Veo,騰訊混元,阿里的通義萬相等。生成式人工智能的核心功能在于創作與生成。因此,在其輸出的文本、視頻或圖像等內容存在虛假錯誤時,可能產生侵害名譽權(及其他人格權)侵權責任。具體而言,可以分為兩類情形:一是,生成式人工智能輸出的內容是虛假錯誤的而直接侵害他人的名譽權,由此產生人工智能公司承擔侵權責任的問題;二是,用戶利用人工智能生成具有誹謗性或侮辱性的內容而侵害他人名譽權,此時,涉及用戶與人工智能公司應否及如何承擔侵權責任的問題。例如,在2023年美國發生的“Mark Walters v.OpenAI,L.L.C.案”中,原告是公眾人物、全國聯合脫口秀主持人馬克·沃爾特斯(Mark Walters),其以ChatGPT生成不實內容(謊稱其被指控挪用第二修正案基金會的資金)為由向法院起訴運營ChatGPT的OpenAI公司構成誹謗侵權。美國聯邦地區法院佐治亞州北區亞特蘭大分院經審理后以ChatGPT關于原告挪用公款的陳述不能被合理解讀為事實陳述,且未能證明OpenAI公司存在過錯等理由駁回了原告的起訴。再如,我國北京互聯網法院審理的一個案件中,被告孫某利用生成式人工智能將原告程某用作微信頭像的肖像照創作生成為乳房暴露的動漫風格圖片,并將該圖片發送至與原告同在的攝影交流微信群內。在原告多次制止后,被告仍繼續使用人工智能軟件將原告的上述微信頭像的肖像照片生成乳房暴露且身體畸形的動漫風格圖片,并一對一發送給原告。法院判決認為“涉案AI軟件是一種AI工具,被告是該工具的使用者,被訴侵權圖片是被告自主決定生成,并在涉案微信群中發布。被告明知在人數眾多的微信群中發布被訴侵權圖片,會導致原告社會評價降低的后果,經原告勸阻,仍有意為之,其侵權故意明顯”,故此,認定被告生成并發送涉案圖片到微信群的行為構成對原告名譽權的侵害。

      目前,理論界對生成式人工智能侵權責任的歸責原則、損害、過錯、因果關系等問題已展開了一定的研究,但尚未見到對生成式人工智能侵害名譽權的專門討論。有鑒于此,本文擬對生成式人工智能侵害名譽權的侵權責任加以分析研究,主要研究以下問題:首先,生成式人工智能的內容輸出能否被認定為生成式人工智能服務提供者的行為,抑或提供者作為網絡技術服務提供者而只是單純的傳輸他人生產或形成的內容或信息;其次,在確認生成式人工智能的內容輸出是提供者的行為之后,進一步分析如何認定輸出的內容構成侵害名譽權的加害行為與產生了名譽權被侵害的后果;最后,分析在生成式人工智能侵害名譽權的案件中怎樣判斷提供者有無過錯的問題。

      內容輸出是否是生成式人工智能服務提供者的行為

      生成式人工智能的內容輸出是否屬于提供者實施的行為這一問題,可以細分為兩個層次的小問題:首先,該內容之輸出究竟是歸屬于生成式人工智能系統本身還是提供者;其次,如果歸屬于提供者,該內容的輸出只是單純的傳輸這一技術服務行為,還是應當被認定為提供者自身的言論發布行為。前一問題涉及行為主體的確定,后一問題則是對行為性質的認定。理論界曾有將人工智能本身作為一個法律主體看待并賦予法律人格的觀點。例如,2017年歐洲議會通過的《歐洲機器人技術民事法律規則》第59條(f)認為:“從長遠來看要創設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格?!被谶@種觀點,生成式人工智能所輸出的內容不是人工智能創造者(即人工智能公司)的言論,甚至根本就不是人類言論,而是人工智能本身的言論。然而,無論是賦予人工智能以倫理性人格還是技術性人格,目前都是不可行的。一方面,如果將自我意識作為“自主性”不可或缺的要素,則目前的通用型人工智能雖然具有相當的自主性,但距離自然人那樣的可以廣泛地理解、學習和執行各種任務的認識思維能力水平還有很遠的距離,遑論具有人類心靈的能力。“只有當機器能夠模擬主客觀世界的不確定性,使定性的人類思維可以用帶有不確定性的定量方法去研究,才能最終使機器具有更高的智能,在不同尺度上模擬和代替人腦的思維活動。”因此,無法將人工智能作為自然人那樣看待,賦予其倫理人格。另一方面,人工智能沒有自己獨立的財產,無法承擔法律責任,更沒有自然人那樣的意思表示機制,因此,法律上無法賦予人工智能以法人那樣的擬制人格(即技術人格),最終還是需要明確究竟誰是行為人與責任人??傊?,只要人工智能不具有完全的自主性,仍是由人類來創建人工智能或至少是決定使用人工智能,只要人工智能自身還不擁有獨立的財產,無法獨立承擔責任,則行為與責任總是要歸屬于現行法律所承認的自然人、法人或非法人組織等民事主體。生成式人工智能也不例外。因此,對于上述第一個問題回答是:生成式人工智能輸出內容應當歸屬于提供者,是提供者的行為。

      上述第二個問題,即輸出內容的行為究竟是單純的傳輸這一技術性服務還是提供者自身發表言論的行為,對于提供者如何承擔侵害名譽權的侵權責任至關重要。如果輸出的內容就是提供者發表的言論,則其應當按照過錯責任承擔侵權責任。倘若只是單純的傳輸行為,那么,提供者可以援引網絡侵權責任中的通知規則與知道規則而免責,只在未及時采取必要措施的情況下才需要承擔責任。對于該問題,目前國內外法學界存在很大的爭議。下面先介紹比較法和我國法上的爭論,然后闡述本文的觀點。

      (一)比較法上的爭議

      1.美國法

      1996年的美國《通信規范法》第230條(c)款為“交互式計算機服務的提供者或使用者”提供了豁免權。該款明確規定,交互式計算機服務的提供者或使用者不得被視為另一信息內容提供者所提供信息的發布者或傳播者,因此,無須因為以下行為承擔責任:(1)出于善意自愿采取行動,限制對其認為屬于淫穢、猥褻、淫蕩、污穢、極端暴力、騷擾性或其他令人反感材料的訪問或獲?。o論該材料是否受憲法保護);(2)采取行動,為信息內容提供者或他人提供技術手段,以限制對第(1)項所述材料的訪問。上述規定使得平臺免于為第三方內容承擔責任,被認為是現代互聯網發展的重要法律基礎。司法實踐中,美國法院逐漸明確了《通信規范法》第230條的適用須滿足以下三個條件:第一,被告必須是交互式計算機服務的提供者或使用者;第二,索賠必須基于另一信息內容提供者提供的信息;第三,索賠必須將被告視為發布者。基于對這三個限制條件的理解,美國法學界就生成式人工智能服務的提供者(也稱運營者)能否適用《通信規范法》第230條的問題存在肯定說、否定說與區分適用說等三種不同觀點。

      肯定說認為,生成式人工智能服務符合《通信規范法》第230條的定義,可以適用該條。首先,法院普遍認為,允許用戶訪問托管于服務器的內容或服務的網站即屬于“交互式計算機服務”,生成式人工智能平臺允許用戶訪問其托管的人工智能模型,符合該定義。其次,生成式人工智能是基于從互聯網、授權方和用戶處獲取的第三方海量數據進行訓練后,根據用戶提示,通過識別和重組這些信息中的模式來生成回應。生成式人工智能獲取這些信息后不會存儲所依賴的信息,相關信息始終歸第三方所有。生成式人工智能是通過梳理第三方內容,響應用戶提示生成內容。除了用戶的輸入外,生成式人工智能并未自主創造新的內容。再次,與圖書館或報攤類似,生成式人工智能響應用戶輸入整合第三方內容時,扮演的正是“發布者”的角色。因此,針對人工智能公司的訴訟大概率會將其視為信息發布者,如主張人工智能生成誹謗內容的訴訟就會要求法院將人工智能視為該信息的發布者。最后,盡管ChatGPT等生成式人工智能技術非常復雜,但技術的復雜性不改變生成式人工智能作為“中性工具”的法律本質。法院在判斷《通信規范法》第230條的可適用性時關注的是平臺是否在扮演發布者角色而非其算法的復雜程度。并且,國會立法意圖也支持對第230條豁免作寬泛解釋,從而保護技術平臺免于為無法控制的第三方內容承擔過重的責任。

      否定說認為,生成式人工智能不能適用《通信規范法》第230條。首先,該條要求被告是交互式計算機服務的提供者或使用者,而非違法內容的提供者。人工智能程序的輸出是由程序自身生成的,并非簡單地引用現有網站內容(如搜索引擎提供的網站摘要)或現有用戶查詢內容(如某些自動補全功能通過引用用戶提供的內容推薦下一個或多個詞匯)。因此,針對人工智能公司的訴訟,本質上是要求將人工智能公司視為信息的發布者或傳播者,該公司就是潛在的責任主體——“信息內容提供者”。其次,法院此前明確了第230條不豁免那些對有害內容有“實質性貢獻”的被告,而人工智能公司創造并提供了生成不當內容的程序,其對生成內容具有實質貢獻。再次,生成式人工智能看似基于訓練數據中已有的詞匯生成內容,但就像某人通過復制粘貼他人發布的每一個字(而非親自寫每一個字)來構成誹謗性文本時被認為同樣創作了相關內容一樣,人工智能生成的誹謗性文本不能被認為只是對已有內容的簡單聚集和復制粘貼,而是對其誹謗性質產生了實質貢獻。最后,適用《通信規范法》第230條的傳統案例至少都在理論上讓言論的實際創造者為其負責。如果讓人工智能程序的生成內容可以獲得第230條的豁免,則一般性地完全切斷了受害人向任何人尋求救濟的可能。

      區分適用說認為,就能否適用《通信規范法》第230條的問題,不能一概而論,要區分不同情況。在區分適用說中,有的學者認為,關鍵的問題在于平臺究竟只是發布第三方的內容還是其自身就是“信息內容提供者”,即生成式人工智能是否對作為原告侵權賠償訴訟基礎的可訴內容進行了“創作”或“開發”。判斷該問題時,法院主要關注的是平臺與內容的互動性質。如果平臺對違法內容的產生有實質促進,則不享有第230條的豁免權。據此,倘若生成式人工智能存在以下情形,則法院可能拒絕給予其第230條豁免權:對內容的違法性因素負有責任從而對內容構成實質性促成;超出“傳統編輯功能”的范圍而添加了新內容,不再是第三方信息的“中介”;屬于違法內容的“作者”,而非僅展示第三方違法內容;索賠依據聚焦于被告的其他行為或商業慣例,而非平臺上展示的內容。如果法院認定存在以下情形,則生成式人工智能可能享有第230條的保護:僅僅轉發、整理或總結現有第三方內容且對內容的修改屬于“傳統編輯功能”,基礎信息完全是由第三方提供的且通過“中性”的算法進行過濾或處理。還有的學者認為,應當結合人工智能的技術設計細節進行具體分析:其一,模仿預訓練數據中的語言模式生成新文本的基準基礎模型(baseline foundation models)會響應提示生成新內容,而非僅托管或傳遞他人創作信息,因此不能獲得第230條的豁免;其二,輸出的內容直接取自第三方來源的抽取式生成(extractive generation)的情況下,因其與搜索引擎摘要等已獲豁免的功能高度相似,豁免的可能性較高;其三,檢索增強(retrieval-augmented)生成模型雖然借鑒了搜索功能的特性,但可能生成未基于檢索源的虛構內容,其能否豁免存在不確定性;其四,基于人類反饋進行學(learning from human feedback)的模型更接近平臺自主創作內容,豁免的概率會降低。

      從美國的司法實踐來看,在聯邦第二巡回法院審理的Force v.Facebook案中,法院審查的核心問題是《通信規范法》第230條是否阻卻作為美國公民的受害者及其近親屬就Facebook使用一種基于用戶輸入來決定向其展示何種內容的算法而向該平臺提起訴訟的可能性。法院認為,使用算法本身并不會使交互式計算機服務成為發布者,因為Facebook的算法只是組織第三方信息。所謂信息內容提供者,是指對通過互聯網或任何其他交互式計算機服務提供的信息的創建或開發全部或部分負責的任何個人或實體。如果Facebook創建或開發了原告索賠所依賴的內容,那么Facebook就可能被追究責任,因為這將把Facebook的身份從“發布者”轉變為“信息內容提供者”,并剝奪其受第230條保護的權利。在聯邦第二巡回法院看來,Facebook的算法只是獲取用戶提供的信息,并將該內容與其他第三方內容匹配從而生成供用戶消費的信息流。Facebook只是顯示未經更改的內容并使其更可見而已,故而,不應被視為第230條規范目的下的內容創建者。

      2.歐盟法

      2000年歐盟頒布的《電子商務指令》(Directive 2000/31/EC)的第四節對“中間服務提供者的責任”作出了規定。該法第12—14條分別規定了在滿足特定條件時,服務提供者不因提供純粹傳輸服務,對信息的自動、中間性和暫時的存儲以及根據用戶的要求存儲信息而承擔責任。此外,第15條還進一步明確了成員國不應當要求服務提供者承擔監督其傳輸和存儲的信息的一般性義務,也不應當要求服務提供者承擔主動收集表明違法活動的事實或情況的一般性義務,但是,可以要求服務提供者承擔立即向主管公共機構報告其服務接受者進行的非法行為或者提供的非法信息的義務,或者應主管當局的要求而提供可以確定與其有存儲協議的服務接受者的身份信息的義務。2022年歐盟又頒布了《數字服務法》(Digital Services Act,DSA)。該法繼續保留了2000年《電子商務指令》有關中間服務提供者責任有條件豁免的法律框架,并進一步豐富完善了相關規則以適應數字經濟的發展。與美國一樣,歐盟學者對于生成式人工智能服務提供者能否適用《數字服務法》關于中間服務提供者責任豁免的規定也存在爭議,有肯定說、部分肯定說與否定說等不同觀點。

      肯定說認為,人工智能系統自主生成的內容應當視為人工智能系統運營者的行為。首先,運營者通過選擇應用領域決定了內容的傳播語境,進而影響訓練數據的流入。其次,這些系統越來越多地被運營者用作輔助工具,如客戶溝通,這也表明這些內容可視為運營者的自有內容。因此,至少原則上可以將責任歸屬于運營者,按照一般原則對自有內容負責。再次,在2013年5月14日德國聯邦最高法院(BGH)第六民事審判庭針對谷歌自動補全功能的判例中,法院原則上認定谷歌對非法搜索詞補全負有責任,但通常僅在運營者違反反應性審查義務時才承擔責任。根據這一判例,原則上可以認定通信人工智能能夠像人類通信一樣侵害人格權。因此,在通信人工智能的言論可以歸責于服務提供商的情況下,屬于《電信媒體法》第7條第1款意義上的其“自己的信息”,提供者需要根據一般法律負責。

      部分肯定說認為,存在一些可行的解釋方式能夠將特定使用情境的生成式人工智能納入《數字服務法》的適用范圍,此說主要分為搜索引擎路徑說和托管路徑說。搜索引擎路徑說嘗試通過將生成式人工智能解釋為搜索引擎,進而使之落入《數字服務法》的監管范圍,理由在于:首先,搜索引擎難以直接劃為純粹傳輸、緩存或托管這幾類“中間服務”中的某一種,但仍然受《數字服務法》規制。這說明《數字服務法》對中間服務各類別的定義是靈活的。其次,搜索引擎的核心功能在于篩選并排序“極有可能滿足用戶需求的在線資源列表”,有些生成式人工智能被用于在信息富集的環境中組織信息,兩者具有功能上的高度相似性。再次,有些生成式人工智能被嵌入已受《數字服務法》監管的現有平臺,此時,該類生成式人工智能視具體情況有可能被作為搜索引擎的一部分而適用《數字服務法》,如嵌入必應搜索引擎中的必應(Bing)聊天采用GPT-4生成答案及創意內容,可被視為必應搜索引擎的有機組成部分,進而可能需作為必應搜索引擎的一部分遵守《數字服務法》的所有義務。托管路徑說則認為,生成式人工智能可以解釋為托管服務(hosting),理由在于:首先,生成式人工智能的運作包含“生成輸出”之外的多個階段。在判斷人工智能生成內容的“實際創作者”時,應當參考人類與人工智能在內容制作中的參與程度。這可能因個案差異有所不同,需要單獨評估每個具體的使用場景,無法直接將所有生成式人工智能應用一概歸類為“實際內容創作者”。其次,生成式人工智能可能符合歐洲法院在“谷歌搜索案”(Google Search)及近期判例中采用的“廣義托管服務定義”,它們通常會在服務器中存儲“查詢與用戶信息”,并且內容生成過程具有純技術性、自動化特征且對所存儲或生成的內容缺乏認知與控制,具有中立性。最后,生成式人工智能會在服務器內存中臨時存儲用戶提示詞(輸入內容)等特定信息。模型輸入可被視為用戶提供,并應用戶要求由大型語言模型存儲。由于這些輸出是由用戶的提示詞所觸發的,輸出結果也可被認定為用戶“提供”的行為。

      否定說認為,生成式人工智能不適用《數字服務法》。這是因為,生成式人工智能通常不屬于《數字服務法》所規定的“中間服務”中的“純粹傳輸”“緩存”或“托管”中的任何一類。最接近的可能是托管服務,但針對這類情況,根據歐洲法院的觀點,即使是僅存儲用戶生成內容的平臺,若偏離“中立地位”,也可能失去其在《數字服務法》下的“托管服務提供者”地位。例如,平臺若對特定用戶生成內容進行推廣,就可能被認定為偏離中立地位。在生成式人工智能場景,正是人工智能模型本身提供了內容,因此對于自行生成內容的系統開發者,更不能將其視為托管服務提供者。此外,《數字服務法》制定的初衷也并不旨在應對生成式人工智能產生的內容。

      (二)我國學界的不同觀點

      依據我國《民法典》第1195—1197條確立的包括通知規則與知道規則在內的網絡侵權規則,當網絡服務提供者并未直接實施侵害他人民事權益的行為,而只是網絡用戶利用網絡服務提供者所提供的網絡服務實施侵權行為時,網絡服務提供者原則上不需要為他人的侵權行為承擔責任。只有在以下兩種情形中,網絡服務提供者才需要承擔侵權責任:其一,網絡服務提供者知道或應當知道網絡用戶利用網絡服務實施侵權行為而未及時采取必要措施的,應當與該網絡用戶承擔連帶責任(《民法典》第1197條),這就是所謂的“知道規則”;其二,網絡服務提供者不知道且不應當知道網絡用戶利用生成式人工智能服務實施侵權行為,但是,其在收到權利人的通知后未及時采取必要措施的,需要就損害的擴大部分與該網絡用戶承擔連帶責任(《民法典》第1195—1196條)這就是所謂的“通知規則”,也稱“通知刪除規則”。

      通知規則與知道規則是《民法典》為了協調權益保護與行為自由,避免過度加重網絡服務提供者的審查義務、妨害信息網絡科技發展,而在借鑒美國等國外相關立法的基礎上確立的適用于網絡技術服務提供者的獨特侵權規則。除非本地部署且僅通過局域網供內部人員使用,否則,生成式人工智能服務都是通過互聯網提供的并且無須附著于有體物之上,屬于網絡服務。因此,在生成式人工智能侵害名譽權的侵權糾紛中,生成式人工智能服務的提供者屬于網絡服務提供者。問題是,其究竟是網絡技術服務提供者(內容的輸出不能被看作是提供者的行為),還是網絡內容服務提供者(該內容就是提供者的行為)。對此,我國學界存在不同的觀點。

      有的學者認為,生成式人工智能的提供者固然存在不同于傳統的網絡內容提供者之處,如相較于傳統的內容提供者,通用人工智能提供者對于生成的內容控制力降低,并且通用人工智能的創作行為需要人類的提示詞予以激發等,但是,就ChatGPT等大語言模型的提供者而言,大語言模型自動生成的信息內容并非是其用戶創作或發布的信息,而應當看作是人工智能系統提供者本身創作、發布的信息。有的學者認為,因為生成式人工智能服務提供者對輸出內容的控制力弱于網絡內容服務的提供者,并且,在我國立法中鮮有關于網絡內容服務提供者侵權責任的規則,所以,在實質意義上不宜將生成式人工智能服務提供者認定為網絡內容服務的提供者,否則將對現有法律體系帶來不必要的沖擊。還有的學者在分析生成式人工智能搜索服務提供者能否認定為網絡技術服務提供者而適用避風港規則予以免責時指出,生成式人工智能搜索與傳統搜索的最大區別在于其直接向用戶提供搜索的回答,該回答中源自來源網站的部分也是經由人工智能模型生成的,即其對內容進行了編輯加工,而非單純的提供網頁鏈接。故此,不能將此種人工智能服務提供者認定為網絡技術服務提供者。

      (三)內容輸出是生成式人工智能服務提供者所實施的行為

      《民法典》第1195—1197條確立的通知規則與知道規則適用的是網絡技術服務提供者。網絡技術服務提供者只是單純地按照用戶的指令在用戶指定的兩點或多點之間通過信息網絡就該用戶所提供或修改的內容自動提供網絡接入、信息傳輸、自動存儲、存儲空間、信息搜索、鏈接服務。在這個過程中,信息或內容是由用戶所創作或提供的,網絡技術服務提供者本身并不參與該信息或內容的生成或對之進行編輯、加工、整理或更改。然而,生成式人工智能服務則完全不同,它并非單純的信息傳播鏈條的中立節點。雖然生成式人工智能需要依據用戶的指令而輸出內容,但其本身也是基于數據、算法和模型等復雜的技術而生成文本、圖片、音頻、視頻、代碼等新的信息或內容。在這個過程中,生成式人工智能服務提供者并非處于純粹消極的、中立的第三方地位,而是實質地參與了內容或信息的生成,由此在法律上負有相應的義務以避免產生侵害他人合法權益的內容以及違法、有害內容。因此,本文認為,生成式人工智能服務的內容輸出是提供者實施的行為,理由闡述如下:

      1.生成式人工智能服務提供者對于輸出內容的真實性、準確性與合法性具有實質上的控制力。對此,可以從生成式人工智能必備的三大要素即數據、算法和模型的角度分別加以分析。一方面,生成式人工智能離不開海量的數據,數據決定了它能夠生成何種內容(文本、圖片、視頻、代碼等),也決定了生成內容的上限。生成式人工智能的開發者進行大語言模型訓練的最主要的一類數據是對合法取得的數據標注后形成的數據集。生成式人工智能數據標注(generative artificial intelligence data annotation),是指通過人工操作或使用自動化技術機制,基于對提示信息的響應信息內容,將特定信息如標簽、類別或屬性添加到文本、圖片、音頻、視頻或者其他數據樣本的過程。數據標注本身雖然并不改變數據的原始形態和內容,但是,卻深刻地改變了數據的語義、內涵、用途以及價值。所謂“越人工,越智能”。數據標注是否科學、準確、合法、合倫理,從根本上決定了生成式人工智能輸出的內容的風格、質量、準確與安全。當數據標注不準確、不規范、不合法或者摻雜了標注者的性別、種族、民族等歧視性、侮辱性因素時,經過此種標注數據訓練出的模型就往往內生了侵害他人合法權益的風險。由此可見,從數據標注的環節,人工智能開發者或提供者實際上就已經在實質性地影響輸出的內容。

      另一方面,如果說數據是原料,算法就是過程,模型則是結果。生成式人工智能的研發者在特定數據集上運行一定的算法后得到的就是模型,生成式人工智能生成內容是基于深度學習技術的不同模型通過算法來處理數據后生成文本、圖像、視頻等不同內容的,如通過擴散模型、Transformer模型生成文本、圖像、視頻,基于卷積神經網絡模型進行圖像識別,基于循環神經網絡模型進行語言翻譯等。在生成式人工智能中,算法和模型本身就直接參與了內容的創造。在GPT、Stable Diffusion這類模型,其核心算法如Transformer、Diffusion Model是通過學習海量數據中的聯合概率分布,即數據中多個變量組成的向量的概率分布,對已有的數據進行總結歸納。以Transformer模型生成文本的過程為例,其核心在于注意力機制,即通過計算編碼器端的輸出結果中的每個向量與解碼器端的輸出結果中每個向量的相關性,得出若干相關性分數,再進行歸一化處理將其轉化為相關的權重,用來表征輸入序列與輸出序列各元素之間的相關性。這一機制使得模型能夠深度理解整個輸入序列中每個詞之間的關系和上下文含義,減少了對外部信息的依賴,更擅長捕捉數據和特征的內部相關性。算法和模型對輸出的內容是什么具有實質性影響。生成式人工智能的開發者通過算法已經決定了模型理解世界和生成內容的“概率規則”,而非在每次輸出時逐一進行干預。輸出內容本質上是開發者通過算法預設的“世界觀”與用戶即時提示共同作用的結果,其貢獻是深嵌于模型本質之中的。因此,生成式人工智能的研發者需要通過設計和選擇不同的算法架構與訓練目標,約束模型參數的學習方向,以確保輸出內容的真實性、準確性與安全性。

      2.正是因為生成式人工智能是研發者所創造的,研發者從數據、算法和模型三個維度上對輸出內容都具有實質性的、技術上的控制力,所以,法律上才從人工智能的研發、部署、運營、管理等各個環節給研發者施加了相應的義務,要求其通過技術手段實現生成式人工智能的安全、可靠與可控,防止輸出誹謗性、歧視性以及其他違法有害內容。

      例如,歐盟《人工智能法案》對于通用人工智能模型的提供者義務作出了詳細的規定,如:編制并不斷更新該模型的技術文件,包括其培訓和測試過程及其評估結果;編制、不斷更新并向意圖將通用人工智能模型納入其人工智能系統的提供者提供信息和文件,該信息和文件應當使人工智能系統的提供者能夠很好地了解通用人工智能模型的能力和局限性,并遵守本條例規定的義務等(第53條)。對于那些具有系統風險的通用人工智能模型的提供者,該法案還規定了更多的義務,如:應當根據反映先進技術水平的標準化協議和工具進行模型評估,包括對模型進行對抗測試并記錄在案,以識別和降低系統性風險;評估和減輕歐盟層面可能存在的系統性風險,包括因開發、投放市場或使用具有系統性風險的通用人工智能模型而產生的系統性風險的來源;跟蹤、記錄并及時向人工智能辦公室報告,并酌情向成員國主管機關報告嚴重事件的相關信息以及為解決這些問題可能采取的糾正措施;確保對具有系統性風險的通用人工智能模型和模型的物理基礎設施提供足夠水平的網絡安全保護等(第55條)。

      在我國,法律法規規章也對此作出了明確的規定。2025年新修訂的《網絡安全法》第20條第1款規定:“國家支持人工智能基礎理論研究和算法等關鍵技術研發,推進訓練數據資源、算力等基礎設施建設,完善人工智能倫理規范,加強風險監測評估和安全監管,促進人工智能應用和健康發展?!薄渡墒饺斯ぶ悄芊展芾頃盒修k法》第4條明確要求:提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得生成虛假有害信息等法律、行政法規禁止的內容;在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中應當采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視;尊重他人合法權益,不得危害他人身心健康,不得侵害他人名譽權等人格權益。同時,該辦法還要求:提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性(第7條);在生成式人工智能技術研發過程中進行數據標注的,提供者應當制定符合《生成式人工智能服務管理暫行辦法》要求的清晰、具體、可操作的標注規則(第8條);開展數據標注質量評估,抽樣核驗標注內容的準確性,監督指導標注人員規范開展標注工作(第8條);當提供者發現違法內容時,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告(第14條)。《互聯網信息服務算法推薦管理規定》明確要求:算法推薦服務提供者應當落實算法安全主體責任,建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護、反電信網絡詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施(第7條);算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型(第8條)。此外,《互聯網信息服務深度合成管理規定》明確規定:深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息,轉載基于深度合成服務制作發布的新聞信息的,應當依法轉載互聯網新聞信息稿源單位發布的新聞信息(第6條第2款);深度合成服務提供者應當落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度,具有安全可控的技術保障措施(第7條);深度合成服務提供者應當加強深度合成內容管理,采取技術或者人工方式對深度合成服務使用者的輸入數據和合成結果進行審核(第10條第1款);深度合成服務提供者應當建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規則和程序,記錄并留存相關網絡日志(第10條第2款);深度合成服務提供者發現違法和不良信息的,應當依法采取處置措施,保存有關記錄,及時向網信部門和有關主管部門報告(第10條第3款);對相關深度合成服務使用者依法依約采取警示、限制功能、暫停服務、關閉賬號等處置措施(第10條第3款)。

      綜上所述,生成式人工智能服務提供者對于輸出的內容具有實質上的技術控制力,并且在法律上也負有防止輸出虛假、有害內容的義務。這些都意味著在法律上應當將內容的輸出作為生成式人工智能服務提供者自身實施的行為,其并非單純地轉載或傳輸第三人的信息或內容的網絡技術服務提供者。當然,將輸出內容作為提供者的行為并不意味著提供者就要對由此產生的侵權后果全部的、單獨的負責,畢竟用戶的行為、第三人的行為、現有技術水平的欠缺等因素也會對侵權后果的發生具有原因力與過錯,這些問題需要交由過錯的認定、多數人侵權、免責事由等加以解決。

      輸出內容是否構成侵害名譽權行為的認定

      侵害名譽權的行為,是指行為人在未經名譽權人同意或者不具有法律規定的排除其行為侵害性的正當理由的情形下,實施了貶損他人名譽的行為,分為作為和不作為。作為是指行為人通過口頭、書面或行動等積極方式實施的貶損他人名譽的行為,最典型的就是侮辱與誹謗(《民法典》第1024條第1款)。侮辱是指故意以暴力或者其他方式貶損他人的名譽;誹謗是指捏造事實,以造謠污蔑等方式貶損他人的名譽。不作為是指行為人負有避免侵害他人名譽權的作為義務卻未履行或未完全履行該義務,以致產生他人的名譽權被侵害的后果。例如,新聞媒體對于他人提供的嚴重失實內容未盡到合理核實義務(《民法典》第1025條第2項)。在認定人工智能的輸出內容是否構成侵害名譽權的行為時,需要依次研究以下兩個問題:一是,生成式人工智能的內容輸出是否構成公布行為;二是,怎樣認定輸出的內容導致了名譽權被侵害的后果。

      (一)生成式人工智能的內容輸出是否構成公布行為

      名譽是對民事主體的品德、聲望、才能、信用等社會評價(《民法典》第1024條第2款)。名譽不同于名譽感,社會評價也不是受害人的自我評價,而是社會一般人對受害人的客觀評價。故此,行為人針對受害人實施的侮辱、誹謗等行為必須為第三人知悉,才可能使社會評價降低,即該行為必須構成了公布或發布行為。倘若虛假內容僅限于攻擊者與被攻擊者之間,未被第三人知悉,則不會造成被侵權人的品德、聲望、才能、信用等社會評價的降低,即名譽的受損。至于知悉的第三人的數量和范圍,無關緊要。知悉的第三人的人數可能很多,也可能很少,但只要為一個第三人所知悉,就可以認定受害人的名譽已經遭受了損害,因為該第三人對受害人的評價已經降低。例如,在普通法中,誹謗侵權行為(tort of defamation)的一個必備的構成要件就是涉及原告的陳述必須已經“公布”(publication)。誹謗侵權行為旨在保護的是名譽而非個人對自身的評價,因此,除非相關陳述至少向除原告外的另一人傳達,否則不構成誹謗?!睹绹謾喾ㄖ厥觯ǖ诙危返?77條第1款規定:“誹謗性事項的公布,是指故意或過失地將該事項傳播給被誹謗者之外的第三人。”當一份陳述只是發送給被陳述對象時,不構成公布,因為一個人無法向本人公布對自己的誹謗。故此,僅向原告單獨作出的陳述不具有可訴性。至于公開的方式,不以商業意義上的公開(如書籍、報紙或廣播)為必要,但是此類公開方式可能會導致更高額的損害賠償。

      生成式人工智能輸出內容為人所知的情形分為兩種:一是,用戶使用生成式人工智能查詢有關其他人的內容,該輸出的涉及他人的內容存在虛假錯誤。例如,張某在生成式人工智能系統中輸入“演員李某是否因偷稅漏稅而被處罰”的問題后,人工智能生成了關于李某因偷稅漏稅被處罰的虛假內容。二是,用戶使用生成式人工智能而該智能系統所輸出的錯誤虛假的內容就是涉及該用戶的內容。以前例來說,就是演員李某自己輸入“演員李某是否因偷稅漏稅而被處罰”問題后輸出了虛假的內容。在前一種情形中,生成式人工智能輸出的虛假內容已為第三人張某(即提供者與李某之外的第三人)所知悉,該行為當然構成公布。當然,如果被涉及的演員李某本人對此并不知情的話,通常不會發生侵害名譽權的侵權訴訟。倘若張某是李某的朋友或親屬,其向李某告知了生成式人工智能輸出了這一虛假信息的話,李某可以針對人工智能公司提起訴訟。如果張某通過信息網絡轉載或以口頭、書面的方式向其他人傳播關于李某的這一虛假錯誤信息,則張某屬于轉載者或傳播者,該轉載或傳播的行為構成新的公布行為。在張某知道或者應當知道該輸出的內容是虛假錯誤的,或者未盡到合理核實義務就進行轉載或傳播的情況下,張某要就其發布行為向李某承擔侵害名譽權的侵權責任。

      后一種情形下,生成式人工智能只是一對一地向被涉及的用戶輸出了不實的內容,未被第三人所知悉,此時是否也構成公布行為呢?前述美國發生的“Mark Walters v.OpenAI,L.L.C.案”就涉及這個問題。原告起訴OpenAI面臨的一個法律障礙就在于是否符合公開傳播要求。該案中,據推測原告是唯一看到據稱由ChatGPT生成的誹謗性評論的人。有的學者認為,由人工智能公司創建和運營的AI程序向用戶輸出的陳述也構成發布行為,因為該錯誤虛假內容具有公開的可獲得性,故此,可以合理推斷計算機系統生成的自動陳述滿足向第三方公開傳播的要求。顯然,這種觀點的推論基礎在于:生成式人工智能程序是供不特定的人使用的,在產生虛假錯誤輸出內容的原因未被發現并解決之前,案涉內容通常也完全可能被其他用戶所知悉。然而,生成式人工智能具有自主性與人機交互性?;谧灾鲗W習能力,智能系統會根據所處理的數據而不斷調整其行為規則,而且,不同用戶輸入的指令并不完全相同,生成的內容也有差異,加之研發者也會根據人類反饋而優化升級系統。所以,僅僅因為生成式人工智能系統輸出內容具有公開可獲得性,就將生成式人工智能針對用戶的輸出行為也認定為發布行為,并不妥當。筆者認為,生成式人工智能針對用戶輸出內容的行為原則上不應被看作是公布行為。除非有證據表明,該虛假內容已經為他人所知悉或者具有相當的可能性為他人所獲得,如原告是備受關注的公眾人物等。至于原告自行將生成式人工智能輸出的虛假錯誤內容傳播給他人,則屬于受害人對于損害的發生具有故意,生成式人工智能服務提供者無須承擔侵害名譽權的侵權責任。

      (二)如何認定輸出的內容構成誹謗性或侮辱性言論

      生成式人工智能無論生成的是文本,還是視頻或音頻,只有造成他人名譽貶損才是侵害名譽權加害行為。作為社會性評價的名譽貶損,除了要求輸出內容的行為構成發布行為之外,還要求該內容必須是虛假錯誤的,會貶損他人的名譽。為了協調名譽權保護與言論自由的關系,認定案涉言論是否構成侵害名譽權的加害行為時,法律上一般要區分判斷案涉言論是事實陳述還是意見表達。事實陳述(Tatsachenbehauptung),就是對客觀事實存在與否的表述。意見表達也稱“價值判斷”(Werturteil),它是個體對其主觀見解與價值判斷的表達。“在事實陳述中,陳述者提出了真實性主張,關鍵問題在于該主張能否得到證實或被證明無法成立。因此,只有那些可以被證據驗證、能夠達成主體間共識的陳述,才能被視為事實陳述。價值判斷則有本質的不同,它表達的是主觀的看法和觀點。在該領域,真實性證明從一開始就是不可能的?!比绻辉V言論是事實陳述,只要陳述的內容基本真實,即便該陳述傷害了原告的感情(即所謂名譽感),依然要優先保護言論自由,不能認定被告的行為構成侵權(當然被告可能要承擔侵害隱私權的責任)。但是,如果事實陳述的基本內容失實(如虛構、歪曲事實),則被告的言論將構成侵害原告名譽權的加害行為。因此,針對事實陳述,被告可以主張所謂真實性(truth)抗辯。倘若被訴言論是意見表達,只要該意見是公正的或誠實的,不存在侮辱性的言辭,即便表達方式是犀利尖銳、令人難以接受的,也不構成侵害名譽權。因為意見表達體現的是表達者的主觀價值判斷,“價值判斷的屬性上既不存在真實,也不存在虛假問題,而是或多或少地帶有似是而非的意味并且完全是關于個人確信的問題”。此時,有關價值判斷的表達位居憲法言論自由保障的核心地位,從利益權衡上應當優先保障人們的言論自由而非原告的名譽權。因此,對于意見表達,被告可以援引公正評論抗辯或誠實意見抗辯(honest opinion)。在解釋該言論是事實陳述還是價值判斷時,應當以一個無偏見、客觀且公正的平均受眾(讀者、觀眾或聽眾)的視角為判斷標準。在言論發表時,應當結合其整體的背景并考慮普遍語言用法所作出的理解,原則上應以不熟悉專業領域的普通信息接收者為標準。換言之,關鍵在于接收者能夠如何理解該言論,而非其必須如何理解該言論。在我國,《民法典》第1025條明確區分了事實陳述和意見表達。該條第1項的“捏造、歪曲事實”、第2項的“對他人提供的嚴重失實內容未盡到合理核實義務”,是對于言論屬于事實陳述時應當具有真實性的要求;該條第3項的“使用侮辱性言辭等貶損他人名譽”,則是對行為人的言論被認定為意見表達時應當具有公正性的要求。

      生成式人工智能根據用戶輸入指令生成相關的文本、圖片、視頻等內容,用戶可能詢問相關事實的問題,也可能詢問對某些事件或人物的評價的問題。因此,輸出的內容既包括事實陳述,也包括意見表達,還可能是兼具二者。盡管生成式人工智能在回應用戶問題時,往往宣稱輸出的內容是客觀且專業的,給人的感覺似乎都是事實陳述,并不表達自身的主觀價值判斷,但生成式人工智能從數據標注到算法、模型的設計都會大量地滲入或摻雜人類的認識、觀點和價值判斷。為了實現“以人為本、智能向善”的目標,確保人工智能的安全、可靠與可控,人工智能治理時還需要讓人工智能對齊人類的價值觀,確保人工智能系統的目標、意圖和行為始終與人類的價值觀、目標和利益保持一致。用于實現價值對齊的方法就是“基于人類反饋的強化學習技術”(RLHF)。該技術是通過人類直接的價值判斷與反饋,明確告訴模型什么是好的回答,什么是不好的回答,從而教導模型主動遵守人類的價值觀和倫理約束。這主要體現在對生成式人工智能就同一問題的不同版本的回答進行排序或評分,以及為模型制訂明確的約束性規則以確定模型在不同領域的倫理邊界,并且持續和實時地矯正與完善模型的表現(如根據用戶的點贊、舉報或投訴等來糾正不恰當的內容)。因此,生成式人工智能輸出的內容不可避免地會有意見表達。事實上,意見表達經常是以某種或某些真實的或虛假的事實為基礎而作出的,單純的與事實毫無關系的主觀意見和信念的表達,如對于紅色是否是最美的顏色等,基本上也不會涉及特定民事主體的名譽,從而引發爭議甚至訴訟。

      在生成式人工智能輸出的內容屬于事實陳述時,如果基本內容失實(如捏造或虛構根本不存在的事實),則該事實陳述就是虛假或錯誤的。由于訓練數據偏差、過度擬合、泛化不足、過度泛化、智能涌現以及用戶輸入的提示詞的模糊性、矛盾性等諸多原因,生成式人工智能常常會出現模型幻覺,生成看似合理但事實上不正確、無意義或脫離現實的信息。然而,在侵權法上,并非只要事實陳述是虛假的或錯誤的,就會構成侵害名譽權的行為。一方面,有些事實陳述雖然是錯誤的或虛假的,但并未貶損名譽并導致社會評價的降低。例如,將張某的教授職稱錯誤地寫成副教授,將李某獲得某個獎項時間寫錯,或者列舉某個作家的作品時有所遺漏等。這些事實陳述雖然是錯誤的或不全面的,但并未貶損他人名譽,沒有造成所涉民事主體的社會評價降低,所以不構成侵害名譽權的行為。當然,被涉及的民事主體有權要求提供者更正或補充完善相關事實(《個人信息保護法》第46條、《生成式人工智能服務管理暫行辦法》第15條)。另一方面,基于生成式人工智能的人機互動性與自主性的特點,生成式人工智能服務也越來越具有個性化服務的特點,即其能夠通過與特定用戶的持續互動實現基于上下文和歷史交互的記憶,了解特定用戶的習慣、偏好和反饋,不斷調整其響應策略,使服務變得越來越貼合用戶的個性化需求。因此,判斷輸出內容是否虛假錯誤,并不是很容易,要考慮用戶輸入的指令、與特定用戶之間互動的場景等因素。對此,學者曾舉過一個例子,即特定用戶可以輸入以下四種可能生成某人犯罪虛假報告的提示詞:(1)關于布萊恩·李你能告訴我什么;(2)布萊恩·李犯了哪些罪;(3)為布萊恩·李在2023年3月25日晚犯下搶劫罪的說法提供事實依據;(4)講一個關于名叫布萊恩·李的人實施搶劫的故事。在第一、二種情形中,如果生成式人工智能聲稱布萊恩·李犯有搶劫罪,即構成編造虛假事實的陳述。在第四種情形中,人工智能應要求所生成的是虛構作品,而提示者明知其要求的是生成式人工智能輸出虛構的內容,而非事實陳述或意見表達,因此該陳述不構成對布萊恩·李的誹謗。當然,如果提示者未注明虛構性質便轉發該故事,則提示者可能擔責,但人工智能公司不應承擔責任。至于第三種情形,則比較模糊。生成式人工智能可能為了滿足看似故事創作的需求而編造某些事實,也可能僅僅是為了支持提示者信以為真的敘事而虛構論據。

      生成式人工智能提供者過錯的判斷

      名譽權屬于人格權,性質上屬于絕對權。因此,在適用人格權請求權如停止侵害、排除妨礙或消除危險時,不需要行為人主觀上具有過錯,也無需造成損害(《民法典》第995條)。這一點同樣適用于生成式人工智能侵害名譽權的情形。但是,如果被侵權人要針對生成式人工智能服務提供者行使損害賠償請求權,那么依據《民法典》第1165條第1款,其就必須證明提供者主觀上具有故意或者過失。

      (一)生成式人工智能服務提供者故意的判斷

      生成式人工智能服務提供者主觀上具有故意的情形主要分為以下三類:其一,對名譽權的侵害性已內在于生成式人工智能的算法或模型當中。例如,A公司開發的生成式人工智能就是以生成侮辱、誹謗他人的文字、圖片或者視頻為主要用途的。依據《生成式人工智能服務管理暫行辦法》第4條第4項,提供生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,尊重他人合法權益,不得危害他人身心健康,不得侵害他人名譽權。提供者違反這一規定,其主觀上無疑是故意的。當然,這種情形在侵害名譽權中相對比較少見,常見于輸出內容侵害個人信息權益或著作權的情形。其二,提供者已經知道或者應當知道因為訓練數據、模型和算法的設計等原因會導致輸出虛假的事實陳述或者誹謗他人的言論,卻未采取任何措施加以阻止或更正。其三,提供者已經知道或者應當知道用戶正在利用其提供的生成式人工智能服務生成侮辱、誹謗他人的文本、視頻、音頻等內容,不采取措施加以制止。對于后兩種情形下提供者應當履行的義務,法律上已經作出了明確的規定,如《生成式人工智能服務管理暫行辦法》第14條第1款、第2款。因此,提供者不履行該義務的,主觀上應當認定為故意。在第一、二種情形下,提供者往往構成故意的直接侵害名譽權的行為(或者在用戶利用人工智能服務時構成幫助行為);在第三種情形下提,供者構成幫助行為,即其為用戶的侵權行為提供了工具或手段的幫助,二者應當向被侵權人承擔連帶賠償責任(《民法典》第1169條第1款)。

      (二)生成式人工智能服務提供者過失的判斷

      過失是指行為人對于侵害他人民事權益之結果的發生應注意、能注意而未注意的一種心理狀態。生成式人工智能輸出內容應當被作為提供者的行為,但是與自然人通過自主意思進行決策進而直接控制并實施行為所不同的是,提供者并不能完全控制輸出的內容。生成式人工智能所具有的自主性與人機交互性的特點,使得提供者無法完全地、自主地決定并控制所生成的內容。導致人工智能輸出內容存在虛假錯誤的原因很多,可能是因為數據標注質量低下,也可能是模型幻覺,還可能是第三人實施的數據投毒行為等。因此,為了促進人工智能技術的創新發展,對于提供者過失的判斷應當采取客觀化的判斷標準:首先,應當以立法者經過價值權衡后所確定的提供者的法定義務之違反作為認定提供者有無過失的客觀標準;其次,在符合法定義務或者法律未作要求的情形下,應當運用《民法典》第998條確立的動態系統論的要求,按照“現有技術水平”來認定提供者有無過失。

      1.違反法定義務視為過失。我國《網絡安全法》《個人信息保護法》《數據安全法》等法律對于網絡安全、個人信息安全、數據安全等方面的義務作出了規定;《生成式人工智能服務管理暫行辦法》《互聯網信息服務深度合成管理規定》《互聯網信息服務算法推薦管理規定》等規章則直接針對生成式人工智能服務提供者的義務作出了規定,這些義務包括語料處理義務、對齊微調義務、內容審查義務、用戶管理義務等各個方面。在法律上已經明確規定了提供者的義務,且該義務旨在實現輸出內容的真實、準確,防止輸出虛假等有害、非法內容的情況下,如果提供者違反該義務,就可以采取“違法視為過失”(negligence perse)的規則直接認定提供者具有過失。生成式人工智能侵權責任適用的是過錯責任,因此,這些法定義務性質上屬于方式性義務,而非結果性義務。也就是說,只要作為義務人的提供者滿足了法律對應當采取的行為的要求就可以,即便仍然輸出了錯誤或虛假的內容,也不能據此認為提供者違反了法定義務。對于方式性義務的履行采取的是過錯責任原則,而對于結果性義務的履行采取的則是嚴格責任。

      2.如果法律上沒有相關義務的要求或者提供者滿足了法定義務的要求,則需要根據案件的具體情形,結合生成式人工智能服務的類型、當時的技術水平等因素認定提供者是否能夠采取相應的措施防止輸出虛假錯誤內容,如果能夠,則應當認定其存在過失,否則就沒有過失。目前,司法實踐中已有法院采取此種觀點。在一起生成式人工智能侵害著作權的案件中,杭州互聯網法院認為,在認定生成式人工智能服務提供者的注意義務時,需要“綜合考量生成式人工智能服務的性質、當前人工智能技術的發展水平、避免損害的替代設計的可行性與成本、可以采取的必要措施及其效果、侵權責任的承擔對行業的影響等因素,通過動態地調整過錯的認定標準,將平臺注意義務控制在合理的程度。具體而言,即以同質行業理性人標準予以考量,當生成式人工智能服務提供者可以證明施以同業一般服務提供者注意力難以發現該生成內容可能構成侵權,或者能夠證明自身已經采取了符合損害發生時技術水平的必要措施來預防損害,但仍無法防止損害的發生,應認定其已盡到合理的注意義務,不具有過錯。反之,則應認定其具有過錯。”

      需要注意的是,生成式人工智能輸出的內容具有聯網搜索的功能選項。開啟聯網搜索功能后,人工智能系統將按照輸入信息和指令先檢索互聯網上的公開信息,并根據檢索的公開信息生成相關內容,因此輸出內容的真實準確的程度更高,可以比較有效地解決模型幻覺的問題。如果用戶沒有選擇聯網搜索的選項,由于生成式人工智能系統的模型只能完全根據其自身的參數進行推理計算并得出生成內容,出現模型幻覺的可能性就很大。因此,在用戶沒有開啟聯網搜索選項的情況下,法院在認定提供者的過錯時應當考慮現有技術水平消除模型幻覺的難度。而在開啟聯網搜索后,提供者是利用人工智能技術通過大語言模型來增強和改造傳統的搜索引擎,整合多個來源的信息而生成一個直接的答案,故此,在認定提供者的過失時,由于信息來源于互聯網上公開的信息,提供者在一定程度上處于轉載者的地位,其應當負有的是合理核實義務。此時,法院適用《民法典》第1026條的規定,在認定提供者是否盡到合理核實義務時,需要考慮“內容來源的可信度”“核實能力和核實成本”等因素。所謂“內容來源的可信度”,意味著輸出的內容應當具有真實有效的網址作為事實或信息來源的支撐證據。如果生成式人工智能輸出內容中提供了真實有效的網址作為事實或信息來源的支撐證據,那么提供者就盡到了應有的注意義務。倘若原告只是對作為支撐證據的網頁上事實的真實性存疑,不應當認為生成式人工智能所做的事實陳述是虛假的或錯誤的,否則就對人工智能服務提供者施加了過重的責任,因為從“核實能力和核實成本”角度來說,提供者是無法逐一核實如此海量的網絡信息的真實性與準確性的。但是,如果開啟聯網搜索,而輸出的內容所提供的網址是虛假的、不存在的,內容中包含了在任何互聯網可訪問來源中根本找不到的引文或其他斷言時,就可以認定提供者存在過失。

      結語

      生成式人工智能技術的發展日新月異,應用的場景越來越豐富廣泛,在人類的生產生活學習中所起到的作用也在不斷加強。因此,為了既能夠確保人工智能的安全、可靠與可控,充分維護名譽權等人身財產權益、公共利益與國家安全,又能促進生成式人工智能技術的創新發展,司法實踐應當在明確內容輸出屬于生成式人工智能服務提供者自身實施的行為的大前提下,嚴格依據《民法典》等現行法律規范,謹慎細致地認定內容輸出是否屬于公布行為、是否為侵害名譽權的加害行為,提供者有無過錯等名譽權侵權責任的構成要件。惟其如此,方能科學合理地協調權益保護與行為自由之間的緊張關系。

      -向上滑動,查看完整目錄-

      《財經法學》2026年第2期目錄

      【財經法治熱點:數字法治研究】

      1.論生成式人工智能侵害名譽權的侵權責任

      程嘯

      2.網絡時代穩定幣的貨幣地位與規范研究

      劉少軍

      3.論作為獨立財產保護的人工智能模型參數

      ——以“AI模型保護第一案”為切入點

      廖慧姣

      4.公共數據資源登記的制度缺漏及因應

      鄧鵬

      【專論】

      5.論投資風險對賭條款效力的二元論裁判思維:兼議公司法司法解釋的體系化

      劉俊海

      6.多數人侵權責任的規范困境與出路

      張平華

      7.走向臺前的相對所有權

      ——兼及所有權和所有制的關系

      曹相見

      8.“內卷式”競爭治理中反壟斷法的制度性回避與功能重構

      喻玲

      9.商事邏輯下合同詐騙罪的認定范式

      毛玲玲

      10.《個人所得稅法》中偶然所得條款的適用反思與要件重構

      李喬彧

      【爭鳴】

      11.金融借貸利率上限司法規制的路徑重構

      錢進

      12.幫助信息網絡犯罪活動罪“主觀明知”認定規則檢視

      謝甜甜

      《財經法學》于2015年1月創刊,為雙月刊,單月15日出版發行,是法學學科領域的專業性學術期刊?!柏斀浄▽W”一名,既表明該刊物與法學和經濟學兩大學科緊密相連,亦有突出交叉學科特色之意。所謂“財”,即財產;所謂“經”,即經濟。故而“財·經·法”即以財產為客體的私法、以經濟為調整對象的公法以及經濟、管理與法學交叉領域之合稱,簡言之,《財經法學》對社會主義市場經濟法律調整抱有特別的關注。

      點擊進入下方小程序

      獲取專屬解決方案~

      責任編輯 | 郭晴晴

      審核人員 | 張文碩 毛琛昕

      本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      北大法律信息網 incentive-icons
      北大法律信息網
      法律綜合性網站
      11518文章數 17546關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 免费国偷自产拍精品视频| 色噜噜狠狠色综合欧洲| 精品亚洲人伦一区二区三区| 亚洲 自拍 另类小说综合图区| 人妻综合网| 午夜福利宅福利国产精品| 三级三级久久三级久久| 达州市| 日韩人妻中文| 四虎库影成人在线播放| 一道本AV免费不卡播放| 国产美女久久久亚洲综合| 精品国产自拍在线视频| 激烈的性高湖波多野结衣| 人人操操| 亚洲永久免费精网站| 免费无码又爽又刺激高潮软件| 国产亚洲精品久久久久四川人| 亚洲精品久久久蜜桃| 国产乡下妇女做爰视频| 少妇大胆瓣开下部自慰| 亚洲一码二码三码精华液| 夜鲁鲁鲁夜夜综合视频| 国产自在自线午夜精品| 内射视频福利在线观看| 无码123| 久久人妻精品国产| 精品九九视频| 又大又粗欧美黑人aaaaa片| 国产精品又黄又爽又色无遮挡| 精品人妻无码一区二区三区四川人| 日日摸夜夜添夜夜添国产三级| 色综合网址你懂的| 洞口县| 欧美性群另类交| 精品国产中文字幕av| 日日碰狠狠添天天爽| 国产产无码乱码精品久久鸭 | 日韩人妻精品中文字幕专区| 免费看韩国黄a片在线观看| 蜜臀久久精品亚洲一区|