近年來,以AI生成內容(AIGC)為代表的技術浪潮以前所未有的速度席卷全球,極大地豐富了信息傳播和內容創作的生態。
然而,技術如雙刃劍,在帶來效率和創新的同時,其被濫用的風險也日益凸顯。
“小鵬汽車展臺”事件就是一個鮮明的例證:通過AI“無中生有”地制造虛假、低俗的視頻,不僅損害了企業的品牌聲譽,更暴露了在深度偽造(Deepfake)技術日益成熟的今天,虛假信息傳播所帶來的社會信任危機和法律倫理挑戰。
![]()
面對AIGC技術越來越先進的趨勢,我們必須正視核心問題——如何防止AI生成圖片和視頻技術被濫用,以及誰應該承擔主體責任?
資深互聯網專家張棟偉表示,解決這一難題,需要從技術、法律、平臺和用戶等多個維度構建多層次、全鏈條的防御與責任體系。
一、技術:對抗虛假的“數字盾牌”
防止AIGC濫用的第一道防線,永遠是技術對抗。道高一尺,魔高一丈,我們需要開發出能夠識別和溯源AI生成內容的“數字盾牌”。
1. 強制性標識和數字水印
國際共識正在形成,即對AI生成內容實施強制性標識(Mandatory Labeling)。
正如中國《生成式人工智能服務管理暫行辦法》和歐盟《人工智能法案》所強調的透明度義務,所有向公眾提供的生成式AI服務都應在生成內容上進行清晰、易識別的標記,告知用戶該內容為AI生成或深度偽造。
我國已率先建立起AIGC專項治理框架,《人工智能生成合成內容標識辦法》及配套強制性國家標準《網絡安全技術 人工智能生成合成內容標識方法》的發布,進一步明確要求服務提供者在生成內容中添加不影響使用的隱式標識,在易混淆場景添加顯式標識,傳播平臺需主動核驗標識信息。
更進一步,應推廣數字水印(Digital Watermarking)和加密溯源技術。
數字水印可嵌入到AI生成內容的底層數據中,不可見但難以篡改。它能記錄內容的生成時間、所使用的模型、甚至是最初的生成者信息。一旦內容被用于不法目的,監管者和受害者可以通過這些水印進行準確溯源,為法律追責提供關鍵證據。
例如,美國加州2024年通過的《人工智能透明度法案》,明確要求提供者配備檢測工具與顯隱式標識功能,形成技術治理的合力。
2. “反深度偽造”檢測技術
需要持續投入研發“反深度偽造”(Anti-Deepfake)技術。
這類技術旨在通過檢測圖像或視頻中細微的、非人類模式的數字偽影、幀與幀之間的不一致性、或AI模型特有的指紋,來自動判斷內容的真實性。當前AIGC技術迭代速度極快,平均兩個月就會出現新的里程碑模型,這使得檢測技術與生成技術始終處于動態博弈狀態。
對此,政府和科研機構必須加大對這一領域的支持力度,構建“以大模型對抗大模型”的基座化鑒偽底座,確保檢測能力不落后于生成能力。
一方面,要通過“生成-標識-檢測”的數據生態閉環積累訓練樣本,提升鑒偽模型的泛化能力,應對各類新型偽造方法;另一方面,需針對性研發對抗技術,防范造假者通過內容壓縮、隱蔽投毒等方式規避檢測的行為。
同時,應推動鑒偽工具全民化普及,開發易用的手機端APP、網頁插件等,讓普通用戶能便捷辨別AI生成內容,筑牢全民監督的技術基礎。
這一點,中國的網絡安全領導企業“國投智能”(美亞柏科)走在了世界前列,已經推出了“美亞鑒真平臺”小程序,雖然還在初期階段,但已經是在引領時代。
![]()
感興趣的同學,可以打開微信小程序試試。
二、法律與監管:構建“技術向善”的邊界
技術對抗是基礎,但要從根本上遏制濫用,必須依靠法律法規的約束與指引,為AIGC劃定清晰的“技術向善”邊界。
1. 明確的負面清單與內容審核義務
各國監管應設立明確的AIGC負面清單,禁止生成和傳播危害國家安全、宣揚恐怖主義、煽動歧視、以及包括色情、低俗在內的不良信息。
更重要的是,應對生成式AI服務提供者施加前置的內容審核和過濾義務。
在模型的預訓練、優化訓練階段,必須采取有效措施,篩除含有歧視性、違法或不良信息的語料;在用戶端,模型應內置針對敏感內容的“安全過濾器”,對可能生成違法信息的提示詞(Prompt)進行攔截或拒絕。
2. 知識產權與肖像權保護
AIGC濫用往往伴隨著對個人肖像權、名譽權和知識產權的侵害。法律必須清晰界定:未經授權利用他人肖像或作品生成的內容,即使是AI創作,其法律責任依然由實際使用者和可能的技術提供者承擔。
我國《民法典》雖已明確網絡侵權責任,但在AI場景下,需要進一步細化,尤其是在侵權舉證困難的情況下,探索由平臺披露相關證據的機制。在“深度偽造”侵權案件中,應引入更嚴厲的懲罰機制,以震懾不法行為。
三、主體責任:多方共治,層層遞進
在AIGC濫用事件中,主體責任的劃分是復雜且關鍵的問題。
鑒于AIGC的鏈條性特點,責任不應只由單一主體承擔,而應是“多方共治,層層遞進”的體系,涵蓋服務提供者、傳播平臺、內容生成者三個核心環節。
1. 服務提供者(模型開發者)的主體責任
AIGC服務提供者(如大模型公司)是技術的“源頭活水”,其應承擔信息內容管理的主體責任,這是第一層、也是最關鍵的責任。
其一,開發者在設計和訓練模型時,必須將合規和倫理要求嵌入其中,遵守訓練數據合法來源、不侵犯知識產權等規定。
其二,開發者有義務建立健全風險評估、安全技術措施和應急處置制度,包括對模型進行“紅隊測試”,主動發現和修復可能被用于生成違法內容的漏洞;提供便捷的投訴舉報入口;對生成內容進行必要的監測和過濾。
其三,當監管部門介入調查時,提供者應依法配合,對訓練數據來源、算法機制等進行說明,提供技術和數據支持。
![]()
2. 內容傳播平臺(網絡服務提供者)的連帶責任
內容傳播平臺(如社交媒體、視頻網站)是虛假信息擴散的“放大器”,其應承擔“通知-刪除”義務和平臺管理責任,這是第二層責任。
盡管事前審核難度極大,但對于明確存在高風險的AIGC內容,平臺應具備一定的事前識別能力。
依據《民法典》及相關法規,當權利人通知平臺存在侵權內容時,平臺必須及時采取刪除、屏蔽、斷開鏈接等必要措施。如果平臺“明知或應知”侵權而未采取措施,則應承擔連帶責任。
同時,平臺應建立健全網絡信息內容生態治理機制,尤其是針對網絡謠言、低俗信息等,進行實時巡查和高效處置。
當前部分平臺雖已探索AI內容檢測技術,但仍存在檢測不精準、響應不及時等問題,未來需加大技術投入,建立“早發現、早攔截、早處置”的快速響應機制。
例如“美亞鑒真平臺”只能支持抖音、快手、小紅書的視頻鑒真,說明還有更廣大的視頻平臺沒有與類似美亞柏科的網絡安全平臺合作,存在較大的安全隱患。
3. 內容生成者(用戶)的直接責任
內容生成者(即實際利用AIGC工具制造虛假內容的用戶)是侵權行為的直接實施者,必須承擔最主要的直接法律責任,這是第三層責任。
無論是侵害他人的名譽權、肖像權還是知識產權,用戶都應根據《民法典》承擔停止侵害、消除影響、賠禮道歉、賠償損失等民事責任。
重慶網民何某利用AI合成災情視頻博取關注被行政處罰、山西網民編造懸空寺坍塌虛假視頻遭追責等案例,均彰顯了法律對AI造謠行為的零容忍。若AIGC內容構成散布謠言、擾亂公共秩序,甚至是以營利為目的的傳播淫穢物品,則可能觸犯《治安管理處罰法》甚至《刑法》。
![]()
值得注意的是,用戶若故意規避平臺規則,使用非法技術繞過內容過濾,還可能面臨懲罰性賠償,這一規定將有效遏制惡意濫用行為。
四、全球協作:應對跨國界的數字挑戰
AIGC技術和虛假信息傳播不分國界,任何單一國家或地區都無法獨立解決這一問題。國際社會應推動在AIGC治理領域的國際交流與合作,在數字水印、內容溯源、安全標準、倫理準則等方面達成國際互操作性的共識。
聯合國、NIST(美國國家標準與技術研究院)等國際組織和機構正在推動內容認證和來源識別機制的建立,我國發布的《標識辦法》和《標識標準》也為國際標準編制提供了重要借鑒,展現了AIGC安全治理的“中國范式”。
通過制定一套全球通用的“數字內容認證標準”,才能在信息跨境流動時,依然能夠對虛假內容進行有效識別和追溯,形成全球協同治理合力。
結語:在創新與安全之間尋求平衡
AI生成視頻、圖片所帶來的“無中生有”的風險,是對社會信任、企業聲譽乃至個人權利的嚴峻挑戰。
我們必須認識到,這不是要“阻止”技術創新,而是在“促進發展”與“規范治理”之間尋求一個動態平衡。
防治AIGC濫用是一項系統工程,其核心在于:技術上,利用數字水印和反深度偽造技術,筑牢數字防御的基石;法律上,構建清晰的負面清單和侵權追責機制,劃定行為的紅線;責任上,確立“提供者—平臺—用戶”三位一體的責任體系,讓每一個環節都承擔起相應的合規和法律義務。
只有構建“技術可防、法律可依、責任可溯”的綜合治理框架,我們才能最大程度地發揮AIGC的積極價值,將“數字迷霧”中的虛假之影驅散,確保技術真正服務于人類福祉。
作者:張棟偉(資深互聯網專家、市場營銷專家、大學生就業創業導師)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.