江德斌
前不久,一位高考生的哥哥梁某在查詢高校信息時,遭遇了“AI幻覺”,AI平臺在生成錯誤信息后,還底氣十足地表示若內容有誤將賠償10萬元。一氣之下,梁某將AI平臺的研發公司告上法庭。針對國內首例因“AI幻覺”引發的侵權案,近日,杭州互聯網法院作出一審判決,駁回訴訟請求。判決明確,在生成式人工智能場景中,AI的“承諾”不構成平臺的意思表示,同時為AI生成內容劃出紅線、底線,厘清了服務提供者的注意義務邊界。
在生成式人工智能迅猛發展的當下,國內首例因“AI幻覺”引發的侵權案雖以平臺勝訴收場,卻揭示了AI技術存在的顯著缺陷。對此,企業需積極承擔技術優化責任,加速迭代升級,以提供更為精準可靠的服務,從而在技術演進中更好地保障用戶利益。
杭州互聯網法院的判決邏輯清晰,AI不具備民事主體資格,其“賠償承諾”并非企業真實意思表示;平臺已履行提示義務并采取合理技術措施,故無主觀過錯。這一裁決在現行法律框架下確有依據,也為行業劃定了責任邊界。法院判決雖體現了對技術不成熟性的合理包容,但這種寬容不應成為延緩問題解決的借口。當前AI技術仍處于發展初期,對其缺陷給予適度理解固然必要,但“AI幻覺”引發的侵權風險不容忽視,必須通過持續的技術迭代與機制完善加以應對,避免因過度寬容而縱容問題長期存在,最終阻礙技術進步的良性循環。
生成式AI在無真實依據的情況下,為了“討好”用戶、滿足需求,憑空編造信息、一本正經地輸出錯誤內容,即便輸出內容與事實嚴重不符,也會呈現出不容置疑的姿態。大模型訓練數據的覆蓋范圍有限、算法設計邏輯存在潛在缺陷,以及上下文語義理解的偏差,共同構成了信息生成失真的技術根源。與此同時,部分廠商在市場競爭壓力下,過度追求生成效率與響應速度,將技術迭代重心偏向性能優化,卻相對弱化了內容準確性校驗與合規性審查機制,這種“重速度輕質量”的發展策略,客觀上加劇了“AI幻覺”問題的擴散風險。
面對“AI幻覺”,法律定責是底線,技術破局才是根本。AI廠商必須加快技術迭代,將準確性、可靠性置于產品設計的核心。具體包括:優化訓練數據質量與覆蓋范圍,減少專業知識盲區;開發實時事實核查與不確定性評估機制,讓AI學會“知之為知之,不知為不知”;建立用戶反饋糾錯閉環,使模型在實踐中持續學習修正。
同時,可針對不同領域的需求,提供相應等級的AI生成服務。對于藝術創作與文學設計等強調創新與想象力的領域,“AI幻覺”可被轉化為創意催化劑,激發使用者的想象空間,幫助他們創作更豐富的作品,而法律、新聞、金融、醫療等對信息準確性要求嚴苛的專業領域,則必須建立嚴格的內容校驗機制,通過多輪事實核查、專業領域知識圖譜嵌入等方法,消除信息失真風險,確保輸出內容達到行業標準。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.