全國人大代表劉曉靜在今年兩會上提的一個建議,這幾天在網上討論度挺高:為 AI 生成內容添加不可去除的數字水印。這個建議的出發點非常明確,就是沖著解決 AI 技術帶來的兩大麻煩去的。
一個是 AI 生成的低質、同質化甚至低俗內容,在流量驅動下滿天飛;另一個更可怕,AI 換臉、擬聲被用于搞詐騙、侵犯肖像權、制造謠言。建議的核心,就是要讓每一個 AI 生成的視頻、音頻,都帶上一個擦不掉、去不掉的 “身份證”。這樣,觀眾一看就知道這是 AI 做的,監管部門也能順著水印追根溯源,原創者的權益也能得到更清晰的保護。
![]()
作為一名關注網絡與科技法律的法律人,我覺得這個建議切中了當前 AI 治理的要害,但在法律落地層面,還有幾個關鍵問題得掰扯清楚。
這個建議最核心的法律價值,在于它試圖落實兩項重要的法律目標:保障公眾知情權與構建溯源追責機制。
一方面,根據《網絡安全法》《數據安全法》以及《互聯網信息服務深度合成管理規定》,提供生成式 AI 服務的,本來就有義務對生成內容進行標識。把 “軟標識” 升級為 “不可去除” 的硬水印,是為了確保 “你看到的不一定是真實的” 這個信息能被有效傳遞,保障公眾的知情權,防止被深度合成內容誤導或欺騙。
另一方面,當 AI 內容被用于侵權或詐騙時,比如用 AI 換臉冒充熟人借錢,這個不可去除的水印就能成為執法的關鍵線索。它能把虛擬空間的內容和現實中的責任主體(無論是開發者、服務提供者還是惡意使用者)綁定起來,為公安機關和司法機關的溯源追責提供技術支撐。
不過,從 “建議” 到 “法律”,甚至到一項可以執行的技術標準,中間還有幾個繞不開的坎兒。
第一是如何界定 “不可去除”?法律語言要轉化為技術標準,最難的就是定義。什么叫 “不可去除”?是技術上完全無法篡改,還是說像一些視頻網站的水印那樣,你一剪輯、一壓縮、一轉碼它就沒了?從評論區也能看到網友的討論,有人說 “必然有去水印的 AI”,這其實反映了法律規制和技術攻防的永恒博弈。
如果把 “不可去除” 定義得太絕對,可能技術上根本無法實現;定義得太寬泛,又容易被繞過去,失去意義。未來如果真要立法,可能需要借鑒《著作權法》里關于 “技術措施” 的保護思路,把故意避開或者破壞技術水印的行為也視為違法,從而構筑起一道法律防線。
第二是權利沖突與合理使用的邊界。強制添加不可去除的水印,會不會影響到正常創作者的表達?比如一個藝術家用 AI 工具生成作品后,再進行深度創作,最后發布的作品上永遠帶著初始 AI 水印,這對他的二次創作算不算一種 “權利限制”?這需要在立法時做好平衡。
水印的目的在于 “告知來源” 而非 “妨礙使用”,未來的制度設計,需要區分面向公眾傳播時的可見標識,和用于后臺追蹤的隱藏數字水印,盡量減少對作品觀感和二次創作的干擾。
第三是平臺責任的落地問題。建議里提到 “強化互聯網平臺主體責任”,這也是《民法典》網絡侵權條款和一系列互聯網治理法規的核心。平臺不僅要對明顯違法的內容負責,未來可能還要承擔識別和標注 AI 生成內容的義務。
如果用戶上傳的內容沒有合規水印,平臺有沒有責任去檢測?這涉及到巨大的技術和成本挑戰,需要法律給出清晰的指引和過渡期。
總的來說,這個建議是在技術狂奔的時代,法律試圖給科技系上的一條 “安全帶”。它不是為了限制創新,而是為了在 AI 生成的洪流中,保護我們每個人 “知道真相” 的權利,以及在權益受損時找到責任人的可能性。
把這條建議變成嚴謹、可落地的法律規則,需要法律人、技術人員和監管部門的通力合作,讓 AI 技術在法治的軌道上,真正服務于社會進步和公眾利益。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.