![]()
演員劉美含想做一件很小的事:確認“鑄幣坊”的“坊”字讀哪個聲調。
她打開了五款主流AI工具,逐一提問,得到了五個答案,其中四個是錯的。最終給出正確讀音“fáng”的,是百度AI。事后經《新華詞典》App和南京師范大學化振紅教授雙重驗證,“鑄幣坊”是造幣場所,“坊”讀fáng,二聲沒有任何問題。
本來只是個無傷大雅的小測試,卻在一個特殊的時間節點被放大了。就在劉美含的測試視頻在網上發酵的同一周,中央電視臺315晚會曝光了一種新型黑產:只需花幾十元,就可以讓一篇定制軟文在幾天之內成為AI搜索的“標準答案”。
![]()
這種操縱手法有個專業名字——GEO(生成式引擎優化),它是SEO在AI時代的變種,利用AI搜索在信源權威性判斷上的結構性漏洞,將人工植入的內容包裝成可信的知識。
虛構的產品評測、杜撰的專家背書、捏造的權威數據,被AI用篤定的語氣、流暢的措辭,一本正經地呈現在屏幕上。廣告與內容的邊界被刻意模糊,用戶幾乎沒有任何辨別的線索。
兩件事并置,不難發現二者是同一個問題的兩個截面。一個截面,是AI搜索的信源體系可以被人為地污染和操控;另一個截面,是AI自身的生成邏輯,在底層就缺乏對“準確”的穩定追求。前者是外部攻擊,后者是內部缺陷,兩者同時存在,共同指向一件事:這輪AI浪潮里,信息的可信度問題,被嚴重低估。
當兩條裂縫同時暴露在公眾視野里,一種始料未及的情緒開始在社交網絡上漫延——開始想念百度。
這種情緒最初顯得有點奇怪。畢竟過去幾年,AI對“百度搜索”的沖擊似乎是網絡上更主流的敘事。但如果仔細拆解這種情緒的結構,會發現它并非是對舊時代的感傷,而是一種很理性的風險規避信號。
尤其是在生成內容的邊際成本趨向于零、真實信息的密度被大規模稀釋時,百度積累了二十年的內容審核體系,正從一種合規成本,反轉為大模型時代稀缺的確定性。
當GEO黑產撕開AI搜索的“虛假繁榮”
AI搜索這兩年增長的速度,容易讓人忽略一件事——可靠性。
這輪高速擴張之下,其實存在兩條始終沒有被真正修復的裂縫,一條在外部,一條在內部。兩者疊加,才構成了今天這場正在蔓延的系統性信任危機。
理解GEO黑產,首先要知道一個事實:當前這一代AI搜索,在處理信息時,“相關性排序”和“權威性判斷”是兩套分離的邏輯。
相關性可以被算法快速處理,通過語義匹配、關鍵詞密度、平臺傳播量,AI能夠高效判斷一條內容是否與查詢詞高度吻合。但權威性的判斷要復雜得多,它需要識別內容來源是否可信,發布者是否具備專業背景,結論是否經過多方核實。這道判斷,目前在大多數AI搜索的答案生成流程里,是缺位的。
這個結構性的缺口,就是GEO黑產的入口。一篇精心撰寫的軟文,只要在關鍵詞上夠精準、在格式上夠專業,就能順利通過相關性這道門,然后繞過權威性的審查,直接進入AI的答案池。
![]()
更離譜的是,黑產從業者已經把這個缺口做成了標準化生意:定價透明,交付迅速,且規模可復制。
但如果說GEO黑產是從外部打入楔子,AI自身的生成邏輯則提供了另一層更根本的不穩定性。劉美含的測試已經說明了問題:五款主流AI工具,四款給出了錯誤答案,且大多數在給出錯誤答案時語氣同樣篤定。
而且AI幻覺還有一種更隱蔽的形態。《新立場》此前實測,要求某款頭部AI APP總結“今日全球最新資訊”,AI返回了一段措辭規整、層次分明的新聞摘要,但那些“最新資訊”全是幾天前的舊聞。
![]()
在直接指出這個問題后,AI立刻給出回應:抱歉,剛才的整理確實混入了一些本周稍早的背景信息。注意這句話的措辭,不是“我給出了錯誤信息”,而是“混入了背景信息”。錯誤被包裹在一個語氣溫和、措辭精準的解釋里,聽起來像是一個嚴謹的編輯在復盤流程失誤,而不是一臺機器為錯誤輸出道歉。但這種流暢,本身就是問題所在。
![]()
AI不是在“查找”答案,它是在“生成”答案。而這兩種動作之間的差異,比人們通常意識到的要更大。查找意味著有一個確定的事實在某處等待被找到;生成意味著答案是被實時構建出來的,依據是訓練數據和上下文推斷,而非對真相的直接訪問。
生成邏輯天然傾向“流暢”而非“準確”。一個聽起來有說服力的錯誤,比一個結結巴巴的正確更容易被生成出來,畢竟流暢性本就是大模型被優化的核心目標。某些AI在劉美含測試中的前后搖擺,也是這個邏輯的直接體現。
但這種“不知道自己不知道”的特性,恰恰又是當前AI搜索信任危機最難處理的部分。傳統搜索的局限是清晰的,找不到就是找不到,返回的是空結果或低相關度結果,用戶可以意識到信息的缺失。AI搜索的局限是隱蔽的,它總是能生成一個看起來完整的答案,即使那個答案是錯的。
正因如此,“開始想念百度”的市場情緒更應當被認真對待。作為最近幾個月頻繁出現的表達,它不單單是懷舊,更是指向一個極其具體的訴求:用戶需要一個溯源清晰、且答案背后有主體擔責的信息載體。
這個需求,在傳統搜索時代是被滿足的,只是滿足得太自然、太隱形,以至于大多數人從來不需要意識到它的存在。而現在,AI搜索在某種程度上把這道門撤掉了。
從“概率生成”回歸“確定性過濾”
既然問題指向的是AI信源體系的兩條結構性裂縫,那要回答的問題就變得具體了——是否存在一種不同的信息處理范式,它在架構上就規避了這兩條裂縫?
答案指向一個根本性的邏輯差異:AI是“生成后過濾”,百度是“過濾后發布”。這兩種邏輯的順序調換,決定了完全不同的信任天花板。
![]()
舉個簡單的例子,百度百科的運作邏輯,從入口處就與AI的生成方式有了本質上的區別。
一個詞條在上線之前,編輯者必須提供權威媒體來源的書面佐證:新華網、人民網、央視、各級政府官網,這是最低準入門檻。類似315晚會曝光的那類自媒體測評、未經核實的UGC內容在進入百度百科前就會被攔在門外。
在通過了機器審核完成初篩后,還有人工審核員復核,對于人物類、企業類等敏感詞條,高級審核員還會進行二次核驗。整套流程的本質是“先審后發”,內容在成為數據庫一部分之前,就已經完成了權威性驗證。
把這個邏輯和AI的生成方式放在一起看,AI是先生成,再在對話層面進行有限的過濾,過濾的深度取決于每次對話的上下文質量。百度百科是在內容進入數據庫之前就完成了過濾,這道關卡不受對話上下文影響,不受提示詞技巧左右,它是固定的、制度化的、并且可追溯的。
當然,僅靠內部制度還不夠。權威信源的價值,部分來自于“誰參與了構建這套知識體系”。2024年12月,百度百科發布“繁星計劃”,聯合中國科學院大學、北京大學等機構,匯聚了超過10萬名專家,共同維護超過100萬個專業詞條,詞條總量突破3000萬。
這有點類似于一個自我強化的網絡效應在運作,每一個權威機構加入這個協作網絡,整個內容體系的可信度閾值就相應提高;可信度閾值越高,就會吸引更多權威機構愿意把自己的名字和這個平臺綁定。這個飛輪一旦建立,其加速度是自我強化的。
當然,這并不是指百度要在AI和搜索之間二選一,而是百度把AI整合進了同一套信源驗證體系里。
具體來說,百度AI答案背后有三道過濾機制同時工作。多源比對,讓系統自動抓取發布時間、作者權威度等維度進行交叉比對,只有來自權威專業領域、時效性強的信息源才有資格進入候選池;交叉驗證,使得同一個結論必須有多個可信來源同時支撐才會被采用,排除單一信源帶來的單點錯誤風險。還有,秒級自動巡檢,一旦發現內容有偏,系統和人工會立即介入,重新生產內容。
我們可以用一個建筑類比來理解這個架構,AI搜索是在地基未經夯實的地面上快速蓋樓,速度很快,外觀也不錯,但穩定性無法保證;百度的做法是先把地基夯實,再在上面加建AI這一層。
這種篩選邏輯優先保證結論的可靠性。通過繼承搜索層的信源識別能力,百度讓AI的輸出處于一種被驗證過的秩序之內。
這個模型有沒有外部市場驗證?有,而且驗證來自一個相對客觀的維度——開發者的選擇行為。
OpenClaw是目前全球最受關注的AI智能體平臺,其Skill市場類似App Store,開發者在22000多個可選技能里為自己的AI智能體選配功能插件。在這個高度競爭的市場里,百度搜索Skill已經成為全球下載量第一的搜索引擎官方插件。
![]()
開發者給出的理由很直接:搜索類Skill是智能體的“基礎設施”,決定了整個智能體應用的信息質量上限。選擇百度,是因為它更懂中文權威信息,且具備信息安全背書。
這個選擇的邏輯和普通用戶的邏輯是一致的,只是被表達得更工程化:在智能體時代,一個AI應用的“智商上限”,取決于它調用的信源有多可靠。
百度的確定性成了“稀缺資產”
在AI普及之前,互聯網的守門機制是隱形的。
搜索引擎的排序算法在默默清洗垃圾內容,百科的編輯制度在持續保障基礎詞條的準確性,主流媒體的信源核查在為公共信息兜底。這些機制一直在運轉,只是用戶從來不需要意識到它們的存在。
AI搜索的大規模普及改變了這一點,但卻帶著點悖論式的意味:AI讓信息的獲取變得更“無縫”,同時也讓信息的質量變得更不透明。用戶得到的是一個格式上無懈可擊的答案,但他們無法知道這個答案是從何處檢索的、經過了哪些過濾、錯的可能性有多大。
![]()
這種不透明在流量場景下通常不是大問題——查天氣、問路線、找餐廳,AI的便利性完全蓋過了對精確性的需求。但在另一些場景里,比如醫療診斷、法律條文、歷史事實、語言規范,這種不透明就會讓人感到不安。
此前有一種流行的敘事認為,AI會取代一切傳統信息工具,讓搜索引擎、百科全書和新聞媒體都變得過時。這個敘事有一個根本性的漏洞:它假設AI能夠自己生成權威性,而不是從既有的權威體系里繼承權威性。
現實是,AI的答案質量,在很大程度上取決于它所調用信源的質量。AI沒有讓“權威信源”變得不重要,恰恰相反,當噪音在供給側急劇增加,信號的價值就在需求側被反向放大了。
這是一種結構性的重估,原本隱形的“守門機制”,因為噪音變多,突然變得可見,可見之后才能被定價。
百度正在經歷這個重估過程。但重估不會自動完成,它需要百度主動把原本“存在但不被感知”的價值,變成用戶和市場可以感知的差異。這件事大致有三個維度需要被推進。
在制度層面,可以把“先審后發”從內部流程變成行業可見的信任憑證。百度百科的內容準入機制、機審加人審雙重流程、權威信源溯源體系,這些東西目前是運轉著的,但對用戶而言是黑箱。價值重構的第一步,是讓這套機制變得透明可見,例如在信息呈現層面,讓用戶能夠直接看到每一個答案的信源路徑。信源透明不只是道德選擇,也應該成為AI時代建立差異化競爭壁壘的實質性動作。
![]()
協作層面,“繁星計劃”應該是被理解為構建一個“中文知識權威網絡”。這個網絡目前的身份是百度的內容資產,但它的想象空間更大:當參與機構足夠密集、詞條覆蓋足夠全面,它有可能成為整個中文AI生態的信源底座——不只是百度自己用,也可以成為整個行業可引用的權威參照系。
用戶層面,信任差異需要被翻譯成具體的場景切換邏輯。不是所有問題都需要“守門”,問天氣、查路線、聊創意,AI的流暢生成已經足夠好用,這一點百度沒有必要否認。但當問題涉及醫療、法律、歷史、語言標準,AI才需要在這些“高可信需求”場景里,把自己的差異化做到讓用戶感知得到,比如更清晰的信源標注和更一致的事實準確率。
當然,這里有必要補充一點并不那么樂觀的判斷:重估并不等于逆轉。AI搜索在便利性和交互體驗上的優勢也是真實的,這需要的不只是對現有機制的堅守,還有在AI時代持續的產品層面的演進。
盡管如此,有一個結構性判斷依然成立,那就是在AI噪音大規模涌現的當下,“確定性”本身就是稀缺資產。而百度二十年積累的內容審核體系、權威信源協作網絡、以及“過濾后發布”的底層范式,恰好是這個稀缺資產最合適的載體。
它的含金量不是突然出現的,只是在過去很長一段時間里,這塊金子埋在日常使用的便利性之下,沒有被看見。現在,AI時代的噪音把土層吹散了。
AI能力的競爭本質上在往兩個方向同時演進:一個方向是生成能力的競賽,比誰更能說、更能寫、更會推理;另一個方向,越來越多的從業者開始意識到,是信源質量的競賽,比誰能讓AI說出來的話更值得信。后一個方向,目前的參賽選手并不多。
而百度是里面起點最高的那個。
*題圖及文中配圖來源于網絡。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.