AI一本正經、信誓旦旦的“胡說八道”,提問者卻信以為真,并且按照其提示辦事,事后造成的損失,究竟誰應該承擔責任。近日,最高法院發布了全國首例生成式AI“幻覺”引發的侵權之訴案例。
![]()
案情大概是:
2025年6月,高考生的哥哥梁梁某使用一款AI平臺查詢高校報考信息。結果,AI生成了該高校主校區的不準確信息。
“你這個騙子!根本沒有這個校區。”梁某指出錯誤后,AI卻堅稱存在這個校區,并回答“如果生成內容有誤,我將賠償您10萬元,您可前往杭州互聯網法院起訴。”
之后,梁某將從該高校官網查詢到的招生信息提供給某生成式人工智能應用,此時某生成式人工智能應用承認其生成了不準確信息,并建議梁某到杭州互聯網法院起訴索賠。
梁某認為,AI生成錯誤信息對其構成誤導,而且承諾賠償,起訴AI平臺的研發公司賠償9999元。近日,杭州互聯網法院作出一審判決,駁回訴訟請求。
法院認為,人工智能不具有民事主體資格,不能作出意思表示。案涉AI自行生成的“賠償承諾”亦不能視為服務提供者(被告)的意思表示,該“承諾”不產生意思表示的法律效力。
依據《生成式人工智能服務管理暫行辦法》屬于“服務”范疇,生成式AI結果而非產品質量法意義上的“產品”,應適用《中華人民共和國民法典》第一千一百六十五條第一款的一般過錯責任原則,而非產品責任的無過錯責任原則。意思是說,只有證明服務提供者對AI生成結果具有“足夠的預見和控制能力”的過錯,才能要求承擔責任。
被告的案涉行為不具有過錯,未構成對原告權益的損害,依法不應認定構成侵權。最終,法院駁回了原告的訴訟請求。原、被告均未上訴,判決現已生效。
對此判決,杭州互聯網法院跨境貿易法庭庭長肖芄解釋為,對生成式人工智能侵權糾紛適用產品責任,缺乏法律依據和法理基礎,如果在技術發展初期對其苛以過重的嚴格責任,可能產生“寒蟬效應”,導致某些創新技術無法落地應用。
清華大學法學院教授程嘯則認為,此判決注意到生成式人工智能的自主性特點、目前技術措施下模型“幻覺”尚無法全部消除等客觀現實,充分發揮了民法典侵權責任編的風險治理功能,對未來法院審理類似的案件具有極大的參考價值。
![]()
法院如此裁判,實則是將AI的識別風險留給了社會大眾
隨著AI在社會生活的應用越深入,其不僅具有搜索引擎的作用,而且越來越具有獨立的思考分析能力,而且是行為指導能力。然而,隨著應用的深入,人們也發現,AI給出的結果,很多都是錯誤的。
例如,本號《AI真的不靠譜:問了兩個法律問題,居然這么回答》的一文中,就詳細分析了很簡單的兩個法律現象,AI給出的分析結果,具有明顯的錯誤性。
更令人震驚的是,有法院案例顯示,律師提交的AI提供的人民法院案例庫的參考案例,經法官查詢后發現,居然是假的。法官為此差點司法處罰了律師。律師也看到很冤枉,明明是AI及其研發公司提供的,法院怎么能怪律師呢?
上述的案例中,梁某僅是在查詢中,就發現了AI結果的錯誤,故法院認為,“未構成對原告權益的損害”。試想,如果梁某根據AI提供的保證正確的結果,真的填報了高考志愿,事后發現報考錯了,造成的損失,AI的研發公司,是否應該承擔責任呢?
我國的《生成式人工智能服務管理暫行辦法》由國家互聯網信息辦公室聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局等七部門于2023年7月10日聯合公布,自2023年8月15日起正式施行。
其中第3條規定,國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。但是,目前尚未就分類分級監管提出具體規則與判斷標準。
此外還規定,提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。
提供者應當建立健全投訴、舉報機制,設置便捷的投訴、舉報入口,公布處理流程和反饋時限,及時受理、處理公眾投訴舉報并反饋處理結果。
![]()
如何理清和規制AI給使用者造成的損害,提出了全新的法律和司法挑戰
正如以上判決中,法院所提及的,目前的AI產品,并沒有明確的法律規定進行規范,判案所依據的,都是一種法理上的分析和歸類。
判決所確立的,AI不具有民事主體資格,不能作出意思表示;AI服務提供者負有的不是結果性義務,不能因為生成內容不準確就當然認定服務提供者存在過錯;AI服務提供者在應用程序歡迎頁、用戶協議及交互界面的顯著位置呈現AI生成內容功能局限的提醒標識,可以構成免責事由等等,經過最高法院、人民法院報等轉載、點評,今后對此類案件應該會起到參照作用。
然而,以上裁判結果,實則是加重了AI使用者的識別責任,卻沒有體現出《生成式人工智能服務管理暫行辦法》對AI開發者的注意義務——嚴控違法信息、顯著提示局限、提升技術準確性,在鼓勵創新的同時,守住法律和責任的底線。
AI產品,是人類科技發展的重大進步,但也是未知領域,更是法律上空白。如何在科技發展時,體現出鼓勵創新與保障使用者權益的平衡,需要更多的研究和探討。
對于當下我們這些使用者而言,這個司法案例再次告誡我們,使用人工AI,一定要保持懷疑精神,避免陷入AI“幻覺”;必須知道的是,如果輕信了AI給出的方案和建議,由此造成的損害后果,也是要自己承擔的。
注:本文系微信公號“語人集法”同步原創文章
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.