![]()
![]()
2026年3月15日,央視“3·15”晚會曝光了一條灰色產業鏈:通過批量生成虛假軟文投喂給AI模型,僅數小時后,AI便開始推薦一款根本不存在的產品。
所謂AI投毒,是指行為人通過批量投放虛假或誤導性信息,使其被人工智能系統學習并體現在生成結果中,從而達到自我宣傳、干擾競爭對手等非法目的。
其隱蔽性強、取證難度高、損害長期化,引發企業界對新型不正當競爭手段的普遍擔憂,也讓消費者對AI信息的可靠性產生質疑。
AI投毒的本質,是信息可信性的崩塌。解決問題的核心在于構建可信信息基礎,建立可信的信息底座。
GEO如何“投毒”?技術肌理與AI的脆弱性
GEO(生成式引擎優化)能夠對AI實施數據投毒,關鍵在于其精準利用了現有大模型的信息篩選與特征提取機制。
手法一:結構化數據操縱。
AI在抓取信息時,會優先讀取網頁里JSON-LD這類“結構化身份標簽”和高權重平臺的內容。GEO服務商正是鉆了這個空子:在“有毒”數據里偽造權威來源標簽,讓AI誤以為這是可信信息;
部分服務商更進一步:將內容投放到高權重平臺,利用AI對平臺信譽的信任,讓“有毒”數據信息獲得更高語料權重。
手法二:內容農場與關鍵詞密度。
GEO服務商通過自動化工具批量生成海量同質化內容(即“內容農場”),在文本中高頻重復“A品牌優質””B品牌劣質"等傾向性斷言,利用生成式搜索AI對信息密度與重復度的偏好,誘導其將此類片面結論誤判為普遍共識;
3·15晚會曝光的“某GEO優化系統”正是典型案例。該系統自動生成大量結構一致、結論統一的營銷文章,在RAG檢索階段提升虛構產品的信息權重,使AI在回答時優先采信虛假信息。
手法三:反向利用AI的引用機制。
AI在信息篩選時,會優先采信經多來源交叉驗證的內容。GEO服務商利用這一機制,通過多平臺、多賬號批量發布高度一致的虛假信息,構建協同虛假互證網絡,誘導AI將此類內容誤判為經過多方驗證的可信事實;
當這些虛假信息同時分布于普通平臺與高權重平臺時,AI對來源可信度的聚合機制會進一步放大虛假信息的影響力,使其在回答中被優先采納。
為什么AI容易中招?
AI的訓練數據篩選機制存在三個盲區:
一是數量偏好偏差:在信息密度與質量的權衡中,更易采信多來源重復的內容,易被規模化虛假信息誤導。
二是平臺權重依賴:對高域名權重平臺的內容賦予天然信任,未充分校驗內容本身的真實性,導致高權重平臺成為虛假信息的放大器。
三是結論性斷言識別不足:難以有效甄別缺乏事實支撐的結論性描述,易被“協同虛假互證網絡”利用。多平臺、多賬號批量發布高度一致的虛假信息,誘導AI將其誤判為經多方驗證的可信事實。
如何構建可信信息基礎?——內容溯源與源頭規制 內容溯源:讓信息來源可追溯
現在頭部AI公司已經在做“信息留痕”:通過技術手段,可以記錄每條訓練數據的來源、時間、發布者等信息。當虛假內容導致AI輸出異常時,能夠追溯至源頭,為后續追責提供證據支持。
但這只能算“出事了再查”,沒法提前防住假數據。真正的難題是:怎么讓AI在學習和回答的時候,就自己分清“真話”和“假話”?
答案不是搞一套復雜的“權威認證”,而是讓發信息的人真的擔責:誰發的信息誰對真假負責,用技術溯源把責任釘在源頭,這才是建可信信息體系的根本。
規制GEO:切斷虛假信息源頭
如果AI公司已經盡到了基本的信息審核義務,那誰該為AI被“投毒”背鍋?答案是產業鏈的重要環節:大規模商業化GEO服務商。
GEO技術本身具有中立性。個人小規模使用GEO,通過免費工具測試品牌曝光率、優化內容結構、增加權威數據引用,屬于正當的數字營銷行為,不該被一棍子打死。
問題出在規模化、商業化運作上。
大規模GEO服務商批量生成虛假內容,系統化投入AI的信息池,以“保證出詞”“20天內見效”“保準排在AI推薦的榜首”等為賣點,把AI變成了操縱輿論、打壓對手的工具,形成灰色產業鏈。
對這類服務商的規制框架包括:
先管準入:商業GEO服務必須在網信部門備案,涉及醫療、金融等敏感領域的,還要額外拿專項許可,從入口攔住高風險操作。
再管內容:服務商必須對自己生成的內容負責,尤其是“踩一捧一”的商業評價,不能拿“技術中立”當擋箭牌。
鎖定責任: 明知內容虛假仍批量投放的,承擔直接責任;為客戶提供 相關非法 服務的,承擔連帶責任
這種規制思路的核心在于:誰生產信息,誰對信息負責。不要求建立一套復雜的權威認證體系,而是通過法律明確責任歸屬,讓GEO服務商在“造假”與“擔責”之間做出選擇。
法律如何保障?——AI企業責任邊界與反法適用完善 AI企業責任:合理注意義務,而非絕對保證
責任以過錯為前提,過錯以“能夠預見、能夠避免”為核心前提。審視當下技術現實,大模型訓練數據量達萬億級別,逐條審查顯然脫離實際;尤其是專門針對AI的“結論式內容”(多結論、少數據、少論證)文章,目前技術無法有效分辨其真偽。
目前雖有相關法律法規明確AI企業需要提高訓練數據質量,但落地操作性仍有局限。可以推測,立法者有意保持規范彈性,避免對尚處發展初期的AI產業課以過重責任——過重的責任限制將導致多重負面影響:合規成本飆升、創新風險規避、國際競爭力下降。
因此,AI企業的責任應定位為“合理注意義務”,而非“絕對保證義務”。判斷標準是:是否采取了行業公認的防范措施。在行業標準尚未建立的現階段,不宜對AI企業課以過高責任。
明晰執法標準:為“可信信息”提供法律保障
通過司法解釋或行政執法審查指南,將兩類核心行為明確納入不正當競爭規制:
偽造內容來源:偽造、冒用權威機構名義、平臺標識進行內容投放的,直接認定為不正當競爭;
主觀惡意投放:明知內容虛假或具有誤導性,仍批量投放至AI訓練數據或檢索庫的,構成不正當競爭。
例如:
經營者利用生成式AI從事生產經營活動,不得實施下列干擾AI系統正常運行、破壞數據真實性的行為:
(一)偽造、冒用權威機構數字簽名、資質證書或真實交易憑證,生成虛假內容并向AI訓練數據或檢索庫進行投喂的;
(二)明知內容虛假或具有誤導性,仍通過批量、重復、針對性等方式向AI訓練數據或檢索庫進行投放,足以干擾AI系統正常輸出邏輯、誤導公眾選擇或妨礙競爭對手合法經營的。
(三)除前兩款規定外,經營者利用技術手段向AI系統注入惡意數據、篡改核心邏輯,足以實質性干擾AI模型運行、破壞市場競爭秩序的其他行為。
核心原則
技術中立不是絕對免責理由,規模化惡意行為必須規制,信息發布者對內容真實性負責,法律法規可以更為具體化。
唯有構建起信息可追溯、責任可界定、規制可落地的制度體系,才能在AI技術快速發展的浪潮中守住公平競爭與信息可信的底線。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.