![]()
易筆直言/文
全國首例 AI 幻覺侵權案的判決,讓 AI “說謊” 的責任歸屬成了熱議焦點。
2025 年 6 月,梁某使用某 AI 應用查詢高校報考信息時,被生成的不實內容誤導,而 AI 此前還曾承諾信息有誤便賠償 10 萬元。在梁某拿出高校官方信息佐證后,AI 雖承認錯誤,但其運營方卻拒絕賠償。梁某隨后起訴索賠 9999 元,杭州互聯網法院最終以運營方無過錯、梁某無實際損失為由,駁回了其訴訟請求。
這起案件的核心爭議,在于 AI 生成的錯誤信息該由誰擔責。運營方的抗辯理由看似站得住腳:AI 內容系模型自動生成,并非其意思表示,且已盡到提醒和技術優化義務。而從技術層面來說,AI 幻覺是大語言模型的固有特性,新加坡國立大學、謝菲爾德大學的研究均證實,這種 “撒謊” 在數學上具有必然性,就像圓周率是無理數一樣無法根除。AI 本就只是處理語詞符號的 “詞體”,沒有真實的感官經驗,其回答不過是脫離現實的 “夢話”,這也讓運營方的脫責有了技術層面的支撐。
但技術上的不可避免,絕不等于運營方可以完全甩鍋。這一點,加拿大航空的 AI 客服案早已給出答案。乘客為奔喪咨詢加航智能客服,被承諾可申請喪親折扣,實際該航司并無此政策,系 AI 產生幻覺。即便加航以無法預判機器人表述為由主張免責,仍被法院駁回,最終不僅賠償折扣金額,還支付了額外賠償金,原因就是法院認定其未采取必要措施保障 AI 回復的準確性。
對比兩起案件的判決不難發現,我國首例 AI 幻覺案的駁回,并非否定運營方的所有責任,而是當前法律對 AI 這一新生事物的審慎考量,畢竟過苛的責任可能限制產業發展。但這絕不意味著 AI 運營方可以高枕無憂,法院明確的三層注意義務,已是劃給行業的責任紅線:嚴審違法信息、顯著提示風險、采取技術提升準確性,這些都是運營方必須扛起的責任。
同時,這起案件也給所有用戶提了個醒:AI 終究只是輔助工具,而非權威的決策依據。其輸出的內容只是概率生成的文本,而非經現實驗證的知識,面對 AI 給出的答案,保持甄別和核實的意識,是當下使用 AI 的基本準則。
AI 技術的發展勢不可擋,AI 幻覺也會長期存在。首例案件的判決,不是這場討論的終點,而是厘清人機權責的起點。既不能因技術局限苛責運營方,扼殺創新;更不能讓運營方以技術為借口逃避責任,將風險全部轉嫁給用戶。唯有劃定清晰的權責邊界,讓運營方守好技術和提醒的底線,讓用戶保持理性判斷,才能讓 AI 在創新與規范中真正服務于人。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.