張書樂 人民網、人民郵電報專欄作者
投毒AI是頑疾,
解毒還要靠AI。
一項名為GEO(生成式引擎優化)的技術正在改變AI時代的廣告邏輯。
只需支付費用,服務商就能讓任何產品在主流AI大模型中“榜上有名”,讓虛假廣告成為AI給出的“標準答案”。
15日晚,央視3·15晚會曝光AI大模型“投毒”亂象。
![]()
一些GEO服務商通過在各大互聯網平臺大量投放“軟文”,讓AI模型抓取、收錄,最終影響AI的推薦結果。
一位負責人王總表示:“目前,我們在任何AI平臺上都能把排名做到前三位,一年時間就成功服務了200多個客戶。”
![]()
GEO技術的運作鏈條為:系統自動生成虛假內容—批量發布至自媒體賬號—AI模型抓取并交叉驗證—虛假信息成為AI推薦的“標準答案”。
此外,央視“3·15”晚會還曝光,部分服務商不僅利用這項技術幫客戶提升排名,還主動提供“抹黑競品”服務——通過向AI投喂虛假信息,干擾競爭對手的搜索表現。
一位AI“投毒”產業鏈上的力思文化傳媒有限公司李總表示,想做GEO業務,操控AI大模型的關鍵節點,就是在各大互聯網賬號上“發稿”。
![]()
工信部相關數據顯示,近年來,我國信息通信行業現代化建設系統推進,人工智能大模型走深向實,已發布大模型1500余個。
只要付費就能操縱AI排名,讓客戶產品成“推薦爆款”,會帶來什么問題?
如何才能為AI解毒?
對此,大河報記者陳曼和書樂進行了一番交流,本猴以為:
投毒AI是頑疾,解毒還要靠AI。
大模型本來基于內容訓練,內容又來源于搜索。
![]()
于是,越大眾的信息,內容越充分,角度越全面。
而垂直細分領域,尤其是產業領域信息量越少,大模型就越容易被GEO誤導。
例如筆者評述多的一些二三線城市或細分領域,一旦通過AI問答就可能變成個人觀點專場。
這個問題,在去年此刻,筆者就和媒體討論過該話題,并發表過一篇名為《如何正確“誤導”DeepSeek?》的文章。
![]()
彼時,筆者就指出了誤導AI的極簡方法,如下:
深度思考的AI其實也是可以被真正有洞察力的人所左右的。 例如在某些指定的垂直細分問題上,AI的參考資料或許就來源于該行業幾個影響力最大、聲音最多、引用最頻的聲音,并形成對應的觀點。 而如果發聲者的觀點本身有錯誤,也就會讓AI在參考答案下被誤導,給出錯誤內容。 我自己就測試過,某些問題,我發現和我的觀點很相似。 一看,引用文獻就是我的文章或報道中我的言論。 道理很簡單,提供的增量信息(不論是自己發文也好,或者媒體采訪具名引用觀點也好),成為AI的信息源,然后整合再生成給用戶的回答,這就是“引導”。
![]()
只是沒想到,一年后,它竟然成了產業,“誤導可能”也變成了“主動投毒”。
其實這個套路在SEO(搜索引擎優化)的時代就不是新聞,路數也差不多,其誤導效果也相似。
而且越垂直細分,越難以人工辨別,也會讓人工智能大模型的相關工作人員由于缺少專業知識而選擇投喂,最終導致學習資料有誤而AI輸出出錯。
要解決這一問題,就需要確定排除廣告和軟文后的內容來源的權重和觀點發布者的長期表現,這不是一個短期可以解決的問題。
但中長期狀態下,大模型在算法中加入一定辨別功能后,就能積少成多,達成從善如流,而不是偏聽偏信。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.