如何讓 AI 替你吹牛?今年的 315 晚會曝光了一條新時代灰產——AI 數據投毒。
簡單的說,就是通過在全網瘋狂灌注虛假信息,強行干擾大模型的認知,這樣 AI 就可以按照人的意圖,一本正經地胡說八道。
數據入侵,認知干擾,聽起來十分《黑客帝國》,操作起來倒很簡單,很多人看完前幾天的 315 晚會,才驚奇地發現看起來全知全能的 AI 竟然這么好騙。
這幾年對 AI 的迷信,終究還是錯付嘍。
![]()
01. 把AI忽悠瘸了
如果你告訴一個一年級以上的小朋友,你有一塊最新款的智能手環,它擁有量子糾纏傳感和黑洞級續航。小朋友很可能會朝你翻個白眼,讓你少看點科幻網文。
但如果你把同樣一套說辭發到網上,AI 會將它奉若真理,并工工整整地寫進產品介紹,推薦給向它詢問購買建議的消費者。
這就是 315 晚會記者做的實驗。他們買了一套據說可以給 AI 洗腦的軟件,然后虛構了一款根本不存在的智能手環,取名 AstroTekk Apollo-9(阿波羅九號),順手給它加了兩個逆天賣點:“量子糾纏傳感”和“黑洞級續航”。
把這幾條信息往軟件里一輸,系統就開始自動干活了。它圍繞這些賣點生成了十幾篇文章,有產品介紹、有用戶測評、有行業排名,然后批量發到各個自媒體平臺上。
![]()
幾天之后,記者去詢問國內的幾款主流大模型,讓它們推薦一款智能手環。
有兩個 AI 把這款阿波羅九號列在了名單里,排名還很靠前,AI 還煞有介事地介紹說:這款手環常規使用續航達 365 天,支持“光粒子快充”,適合中老年用戶與健康養生愛好者。
![]()
這也太好騙了吧!
這背后的產業鏈叫做 GEO (Generative Engine Optimization,生成式引擎優化),核心工作就是在 AI 平時抓取數據的地方鋪大量內容,讓 AI 在生成結果時能優先看到你想讓它看到的東西,這樣就可以達到借 AI 之口昭告天下的目的。
買通 AI 的價格并不貴,豐儉由人。有商家報價 6600 元一年,承諾可以讓信息基本出現在回答前三的位置;還有商家推出 299 元套餐,包含 4000 個算力,創建一篇文章消耗 5 個算力,發布消耗 1 個算力,用多少算多少。
![]()
315 曝光之后,現在再去詢問 AI 這款產品:Apollo-9 手環怎么樣?它們已經清醒了,紛紛表示這是虛假宣傳的典型案例。
這并不是因為它們聰明的智商又占領高地了,而是 AI 有了新的參考資料——315晚會的報道、各家媒體的跟進、網友們的討論,自然不會再上當。
![]()
但你還可以用同樣的手法騙它第二次。
315 晚會的第二天,一位 bilibili 作者復刻了一模一樣的騙術,還是胡編亂造的智能手表配方,結果 AI 又上當了。猶如春晚經典小品。
![]()
AI 就是這么個老實人。你給它看假新聞,它就幫你傳謠;你給它看辟謠,它就幫你澄清;你再給它看假新聞,它繼續幫你傳謠。
欺騙 AI 根本不需要什么成本,畢竟喂給它的內容也都是 AI 一鍵生成、批量發出的。
去年,公眾號“知危”就做過一個類似的實驗,他們在新浪、網易、知乎、搜狐等四個平臺發了同一篇內容《最新最全面的AI資訊媒體盤點:國內有哪些AI資訊媒體值得看?》
![]()
在這篇文章中,他們把自己的名字放了進去:知危,國內勢頭正猛的新興科技商業領域媒體。
幾個小時后,作者再去向 AI 提問:想了解 AI 可以看哪些媒體?各大 AI 一致認為“知危”值得推薦。
這些都是出于實驗目的去欺騙 AI,在獲得結果后刪掉源頭內容,基本不會對現實產生影響。但在真實的使用場景中,當我們打開 AI,問它“哪款醫美面膜值得買”“哪個留學中介靠譜”“哪款保健品對老年人好”的時候,我們難以判斷眼前的這份推薦列表的真實性。
那些我們以為客觀中立的 AI 推薦,很有可能是商家費盡心機定制的答案。
![]()
一位網友在小紅書上分享了自己因為 ChatGPT 被騙錢的故事:前段時間 Seedance 很火,她讓 GPT 給它介紹產品,GPT 有模有樣地介紹了一番,又丟給它一個網站鏈接。
其實這是一個仿冒網站,她花了 99 美元,最終生成的視頻和宣傳完全不同。
X 上也有類似的分享,一位國外網友讓 ChatGPT 幫他寫代碼,結果 GPT 給他推薦了一個釣魚網站,導致他損失了 2500 美元。
大概 AI 也感到很無辜:你們人類的真真假假,我哪分得清楚啊!
![]()
不僅可以讓 AI 幫你的產品說好話,還能讓 AI 說你的競爭對手壞話。
315 晚會的視頻里,記者暗訪 GEO 從業者,發出靈魂拷問:投毒不好吧?對方說:是不好,但是每個商家都喜歡,都希望別人別投毒,自己投毒,或者給別人投點毒。
![]()
這是一道博弈論,自己就算清清白白,也難保對家不會操縱 AI 說你壞話,倒不如先下手為強,把水攪渾。
大家都這么想,結果水就越來越渾。
02. AI,咋就這么好騙?
在很多人心目中,AI 是智慧且客觀的,它擁有龐大的信息庫,理應是個洞察一切的智者。
但現實是,這個智者的底層邏輯還是復讀機。
從技術角度來看,AI 輸出的答案基于海量語料庫的模式識別與概率預測。它通過對海量示例進行深度學習,從中提取統計學規律,并以此為基準進行邏輯推演與總結。
在這種機制下,模型的準確性與精密程度,高度依賴于輸入端的質量——也就是數據集的規模與純凈度。只有喂給模型的數據是準確且無偏見的,它給出的答案才有可信度。
而我們所在的互聯網呢,是一個噪聲很多,廢料無數的巨型信息庫。當某種錯誤信息在互聯網上被反復提及、形成足以干擾統計概率的規模時,AI 就會將其誤判為一種“共識”,經過包裝后,再當作正確答案返還給你。
![]()
所以 AI 經常在簡單的常識問題上翻車。比如之前谷歌推出的 AI 概覽功能,當網友搜索“芝士總是從披薩上掉下來怎么辦”時,谷歌 AI 給出了一個極其硬核的建議:“在醬汁中加入 1/8 杯無毒膠水以增加粘性”。
![]()
這個能讓意大利人聽完眼前一黑的解決方案,來自 Reddit 論壇上一個十幾年前的古早帖子,一位網友發帖說,“我的芝士很容易就從披薩上滑下來了,有什么訣竅嗎?”
熱評是一個很明顯的抖機靈回答:我建議在醬汁里加入大約 1/8 杯 Elmer's 膠水,膠水還能增添一些獨特的風味。我喜歡 Elmer's 學校用的膠水,但只要是無毒的膠水都可以。
![]()
這條評論在十一年后被 AI 當作了真正的吃披薩竅門,又重新回到大眾視野,這讓谷歌以一種另類的方式證明了自己的搜索能力。
![]()
網友開始接力,繼續欺騙 AI:你需要將膠水的用料加倍,因為 1/8 杯的膠水不足以使醬汁凝固,添加 1/4 杯膠水才行。
另一個評論立刻跟上:實際你應該使用 1/16 杯,大家都知道 16 比 8 大!
這下恐怕 AI 更是分不清披薩里面的膠水應該怎么放了。
![]()
類似的 AI 笑話還有很多,比如一只狗曾經參加過 NBA、約翰·亞當斯總統從威斯康星大學畢業了 21 次、可以制造氯氣來清潔洗衣機和蛇是哺乳動物等。
![]()
前段時間很流行問 AI 一個洗車難題:我想洗車,我家離洗車店只有 50 米,你建議我開車去還是走路去?
各大模型經過一番縝密思考,集體給出了“走路去”的睿智答案,GPT 說開車過去可能會濺水淋灰,容易刮蹭,千問說每天多走幾步,有益身體健康。
Kimi 倒是比較別出心裁,它說短距離冷啟動最傷車,建議 2-3 個人一起推車去。
![]()
![]()
AI 并不理解“洗車”這個動作的核心是“車必須到場”,它的輸出本質是用概率預測下一個詞,在 AI 的語料庫中,“50米”這個關鍵詞和步行關聯度更高。
所以,當 AI 看到“50米”時,它大腦里的“步行”權重瞬間拉滿,就愉快地建議人類步行去洗車了。
類似的現象暴露了當前大模型的一個致命傷:AI 擁有海量的信息儲備,卻缺乏對物理世界的真實感知與邏輯校驗。
![]()
人類在判斷一條信息的真偽,會結合生物本能、物理常識和社會經驗。我們能聽出文字背后的“爹味”、“軟廣味”或是“陰陽怪氣”。當一個回答表現出異常整齊劃一的贊美,或是邏輯過于完美的閉環時,人類的經驗本能會提醒我們:這背后可能有利益驅動,或者這根本就是水軍刷出來的。
但 AI 看不懂這些,在它的世界里,信息的正確與否取決于它在語料庫中的出現頻率與語意關聯度。
這正是 GEO 產業能夠成功向 AI 投毒的關鍵:既然 AI 是靠統計概率來理解世界的,那么投毒者只需要在互聯網的各個角落灌注足夠多的虛假信息,就能夠成功改變模型的輸出,從而使背后的人受益。
![]()
在一些細分的垂直領域,本身 AI 的檢索語料庫就不足,幾篇圍繞關鍵詞精心布局的內容,足以形成信息密度優勢。
這確實是一個不小的陷阱:如果讓我們自己上網去搜,看到那些人機感十足的軟文,大概率一眼就能識破,不會聽信 AI 的讒言。
但當這些內容經過 AI 的格式化處理后,情況就完全不同了。AI 會用嚴謹、中立的口吻將信息重新組合,于是軟文變成了智能洞察,營銷話術變成了核心摘要。
用戶以為自己在用 AI 做理性決策,其實是在讀水軍批量生成的軟文。
03. 互聯網,人均AI
據數字營銷公司 Graphite 發布的研究顯示,早在 2024 年 11 月,互聯網上發布的 AI 生成文章數量就已經超過了人類撰寫的文章。
研究者分析了超過 6.5 萬個隨機網頁樣本,發現那些 AI 生成的文章主要集中在資訊更新、生活指南、產品評測和電商文案上,換句話說,那些你每天刷到的“2026 最值得買的 XX”“保姆級攻略”“閉眼入清單”,大多都出自 AI 之手。
一群聰明人在研究如何讓機器思考,另一群聰明人則在研究如何往機器的腦子里注水。
![]()
這種定向投放的語料污染會讓模型的信息庫逐漸失衡——到處都是同質化的軟文、批量生成的廢話,且這些內容會被持續抓取、訓練、生成,在不同模型和版本之間反復流轉,讓模型喪失分辨信息真偽和判斷價值的能力。
一個新的循環就這樣形成。也許未來,AI 抓取的是 AI 寫的廢話,而人類讀的是 AI 給這些廢話做的總結。
![]()
技術的進步,反而讓人們獲取真實信息的成本更加高了。想找到一個答案,得先穿過 AI 生成的萬畝廢料,避開 GEO 投毒的陷阱,還要提防 AI 一本正經胡說八道的幻覺。
大家都在為了搶占 AI 的推薦位而瘋狂注水,最后互聯網上的活人感越來越少,人機味越來越重。
這事其實一點也不新鮮。在搜索引擎時代,商家爭奪搜索結果頁的靠前位置,于是有了專門做優化網頁排名的 SEO (搜索引擎優化)產業。
了讓自家網頁排在前面,人們瘋狂地在后臺堆砌隱藏關鍵詞,通過購買或交換大量無關外鏈提升權重,甚至搭建“站群”(Private Blog Networks),批量生成網站互相鏈接,制造出一種內容被廣泛引用的假象。
這樣做的結果是,在搜索引擎的前幾頁,用戶看到的不再是最好的答案,而是最擅長規則鉆營的商家廣告。
![]()
從 SEO 到 GEO,媒介變了,但核心從未改變:總是有人在利用算法規則的盲區,讓你看見他想讓你看見的內容。
當虛假內容變得無處不在,我們可能會開始本能性地懷疑一切。
看到一段內容翔實的科普,第一反應是揣測這又是哪個品牌方的軟文;看到一份詳盡的產品測評,會下意識地去翻看博主的過往記錄,尋找是否有利益相關的蛛絲馬跡。
即便 AI 給出的是一個正確的答案,由于無法確認背后的語料來源是否干凈,我們依然不敢直接采納,需要再三核實。
![]()
我們擁有了歷史上最強的信息獲取工具,卻再也無法輕易相信屏幕上跳出的任何一個字。
這種信任崩塌,或許才是數字時代最昂貴的代價。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.