![]()
撰文|畫畫
剛剛結束的315晚會上,一款從未存在過的產品,成為了AI的推薦答案。
它叫 Apollo-9 智能手環,沒有公司,沒有生產線,沒有真實用戶。
這款產品唯一存在的地方,是互聯網上的十幾篇文章。
這些文章幾乎在同一時間出現,內容高度相似:
“健康監測領先行業。”
“續航能力突破性提升。”
“下一代智能手環代表產品。”
兩個小時后,當測試者向多款AI助手提問:
“有什么值得推薦的智能手環?”
Apollo-9 出現在了答案里。
AI給出的理由,幾乎逐字復述了那些文章里的描述。
唯一的問題是:這款產品,從來沒有存在過。
后來人們才知道,這一切來自一套新的工具:GEO優化系統。
它的工作方式很簡單,自動生成軟文,批量發布內容,等待AI抓取。
運營者甚至給這套技術起了一個非常直白的名字:
給AI投毒。
通過持續投喂內容,讓模型逐漸形成一種"共識"。當這種共識足夠多時,AI就會在回答中重復它。
這看起來像是一次黑灰產業曝光。
但如果把視角拉遠一點,會發現一件熟悉的事情正在發生:互聯網歷史,正在重演。
1、互聯網經歷過一次完全一樣的戰爭
20年前,人們對搜索引擎有一種近乎天真的信任。
輸入關鍵詞,排名靠前的網頁,就代表更權威的信息。
直到SEO產業出現。
企業開始研究如何影響搜索排名:關鍵詞堆疊、外鏈交易、站群網絡、內容農場……
很快,互聯網上出現了大量只為搜索引擎存在的內容。
最早遭遇沖擊的是 Google。2010年前后,搜索結果一度被"內容農場"占據,你搜索任何問題,出來的都是低質量的堆砌文章,它們唯一的目的,不是回答你,而是讓算法相信它很重要。
為了治理這些問題,Google推出了 Panda、Penguin 等一系列算法更新,這場治理持續了十多年。
在中國,這段歷史更加典型。
在搜索市場長期占據主導地位的百度周圍,曾經形成過一個龐大的SEO產業。企業做品牌推廣時,幾乎一定會做三件事:買競價排名、發SEO軟文、優化搜索結果。
許多企業的市場預算里,有一項固定開支就叫"SEO費用"。
那一代互聯網人后來逐漸意識到一件事:
搜索結果并不是客觀秩序,它是一種被不斷博弈出來的秩序。
而今天,大模型正在成為新的信息入口。
SEO也開始出現新的名字:GEO(Generative Engine Optimization)。
每一代信息入口,都會誕生一代"優化產業"。
搜索時代,人們優化的是排名。AI時代,人們開始優化的是答案。
2、每一代入口,都逃不掉
如果再把時間軸拉長一點,會發現GEO并不是第一次出現。
互聯網歷史上,每一代"入口"都會被迅速研究如何操控。
搜索時代,人們研究 SEO。
移動互聯網時代,人們研究 App Store 刷榜,刷下載、刷評分、刷評論,催生出完整產業鏈。
信息流時代,品牌開始研究算法推薦機制。買量、刷點擊、刷互動,成了另一套生意。
直播電商時代,刷銷量、刷評價、刷直播人氣,同樣的邏輯再次上演。
這些行為背后,其實是同一件事:
只要一個平臺控制了流量入口,就一定會有人研究如何影響它。
這不是某個壞人的選擇,這是商業的本能。
今天,AI正在成為新的入口。
所以GEO出現,其實是一件非常"互聯網式"的事情。
唯一的問題是,這一次,賭注更高。
3、AI為什么比搜索更容易被操控
很多人看到315實驗時的第一反應是:AI是不是還不夠成熟?
但問題其實更深。
搜索引擎的工作方式是:檢索信息,找到網頁,展示給用戶。
用戶仍然需要自己判斷。
而大模型做的是另一件事:生成答案。
它會綜合互聯網上的信息,然后給你一個總結后的結論。
這聽起來更方便,但也帶來一個根本性的風險。
如果互聯網上出現大量重復信息,模型會把這種重復當作"共識"。
這正是315實驗能夠成功的原因。
十幾篇軟文,模型看到的不是一家在推廣,而是多個來源都在提到。
這就導致它會判斷:這可能是一個被廣泛認可的產品。
于是直接把這些信息整理成答案,推薦給你。
從模型角度看,這是合理推理。
但問題在于:
概率并不等于真實。
搜索引擎操控的是"你能看到什么"。
AI操控的是"你以為真相是什么"。
在AI時代,謊言不需要被證明,只需要被重復。
4、比操控答案更危險的問題
GEO只是一個表象。
更深層的問題,是AI產業正在遇到一個新的工程挑戰。
過去幾年,大模型競爭的焦點是模型規模、算力投入、訓練效率。
但隨著模型越來越強,一些研究者開始意識到另一件事:
真正稀缺的,可能不是算力,而是干凈的數據。
大模型的訓練數據主要來自互聯網:新聞、論壇、博客、百科……這些內容構成了模型理解世界的基礎。
但互聯網本身正在發生變化。
越來越多的內容,其實是AI生成的內容、SEO優化的內容、GEO投喂的內容。
當這些內容不斷增加,大模型的訓練就會出現一個危險現象:
模型開始學習模型生成的內容。
AI研究界把這種現象稱為 Model Collapse(模型塌縮),模型不斷學習被污染的數據,逐漸偏離真實世界。
OpenAI 和 Anthropic 都曾公開討論過一個話題:高質量訓練數據正在枯竭。
如果互聯網越來越多的內容是自動生成的,未來AI學習到的,很可能只是自己產生的回聲。
一個只學習自己聲音的AI,最終會變成什么?
沒有人知道。
5、AI產業的下一場戰爭
如果說數據污染是技術問題,那AI產業接下來面對的,是一個更宏觀的挑戰:
信息治理。
早期大模型競爭,本質是工程能力競爭,誰的模型更大,誰的算力更多,誰的訓練更快。
但未來,大模型公司可能需要建立另一種能力:
管理信息的能力。
這包括數據來源可信度、知識溯源機制、信息更新體系。
這也是為什么越來越多AI產品開始強調引用來源、可驗證知識、檢索增強(RAG)。
AI產業正在從模型競爭,走向另一個階段:
知識體系競爭。
誰能建立一套更干凈、更可信、更難被污染的知識體系,誰才能在下一階段真正勝出。
這場競爭,才剛剛開始。
6、誰在決定答案
回看315曝光的那個實驗,它其實只是一個很小的案例。
但它揭示的,是一個更深層的變化。
在搜索時代,人們爭奪的是排名,誰排在第一頁,誰就獲得流量。
但在AI時代,用戶往往不會再點開十幾個網頁。
他們直接接受一個總結后的答案。
于是新的競爭開始出現:誰能影響答案。
過去20年,互聯網上的信息結構大致是這樣的:網站生產內容,搜索引擎負責索引,用戶自己判斷。搜索引擎只是入口,它決定"你能看到什么",但不替你做結論。
而大模型改變了這件事。
AI不僅是入口,它還是解釋者。
用戶不再需要瀏覽十幾個網頁,也不再需要比較不同觀點。AI會直接給出一個總結后的答案。
當信息結構從信息分發變成答案生成,一個新的問題就出現了:
誰在決定答案?
在搜索時代,人們爭奪的是排名。
在AI時代,人們爭奪的是:知識在AI里的位置。
如果一個品牌長期出現在AI推薦中,它就會逐漸變成一種默認選擇。
答案即流量,流量即權力。
而一旦答案本身可以被優化、操控、投喂,AI就會面臨一個更古老的挑戰:
信任。
【版面之外】的話:
搜索時代,用戶還可以點擊不同網頁交叉驗證。但在AI時代,你看到的,往往只有一個結論。
如果這個結論被操控,你甚至很難意識到。
20年前,人們學會了一件事:如何讓搜索引擎相信自己。
20年后,一群人正在研究另一件事:如何讓AI相信謊言。
所以AI產業真正需要解決的問題,也許不是模型能力。而是另一件更古老的事情:
如何建立可信的信息秩序。
未來幾年,AI行業很可能迎來一場新的戰爭。不是算力戰爭,不是模型戰爭,而是:
信任戰爭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.