要我說,AI 就像個殺豬盤:
“有時候明知道它會忽悠你,你就是愿意聽它說,還只聽它說。”
搜索引擎就在那,你也不查。
其實在 3·15 以前,就已經有好多朋友跟我吐槽:有些野雞公司,在百度上根本查不到,可要一問 AI,那它就是妥妥的行業翹楚,明天就能收購蘋果。
AI 那種賭咒發誓的語氣,你要是不信它感覺良心都過不去。
當然說忽悠是開玩笑,AI 也不知道它錯了。但 AI 這么容易被“下毒”,這事兒肯定不對。
![]()
最近和幾個搞搜索的同學聊起來,我發現一個很有趣的結論:解決 AI 胡說的辦法,可能不在 AI 本身,而在搜索引擎!
我用三句話給你解釋一下:
1、在信息的生產線上,要有至少一處“常識檢查點”。
之前有國外網友問 AI:怎么做披薩才能不讓奶酪滑落?
結果 AI 篤定地告訴他:往里面加膠水,記得選“非毒膠水”哦~
可咱們人類用搜索引擎一查就知道,這個答案的來源是有個老哥在 Reddit 發的段子。。。段子你能信么?
你有沒有發現奇怪之處?
這里面 AI 工作流程和人類很相似,都是用了搜索引擎查資料,但為啥會得到相反的答案?
因為人類在整個流程里不自覺地用了一次“常識檢查”!(這個常識就是:Reddit 是一個發段子胡說的網站。)
![]()
說實在的,雖然現在 AI 顯得很聰明,但只是“顯得”,此時此刻,世界上沒有任何一個 AI 掌握 Ground Truth(也就是常識)。
而且悲傷的是,這就是目前模型技術的系統特征,不是 Bug,修都沒辦法修。
所以,在 AI 生成答案的流程中,這個“常識檢查點”不能放在 AI 上,而是要放在搜索引擎上!
![]()
2、搜索引擎里,怎么加入“常識檢查”能力?
中國互聯網發展了快三十年,還是攢下了一些家底的。
就拿百度來說,如果你去查一個東西,搜索引擎給“百度百科”的權重是非常高的。
那百度百科的東西是怎么來的呢?它是需要人來審的!
編輯者必須提供官方媒體、主流期刊之類的信源,才能讓你通過。
你看到了沒,在這一步,“常識檢查”就已經原神啟動了。
![]()
它就像個篩子,前置過濾掉了阿貓阿狗的信息。
后面 AI 再去搜索,調用的就是已經“帶有常識”的結果了。
很多人都覺得百度搜索就是把全網頁面聚合過來的“二道販子”,但怎么可能這么簡單?
百度的核心藝能是:它能精準判斷給予全網不同頁面多大的“權重”。
所以接下來的事情就簡單了:
它可以專門為 AI 優化權重參數;
讓 AI 用百度搜索時,只給它呈現高置信度的,符合常識的結果;
那些扯淡的帖子,壓根不給 AI 看!
![]()
3、AI 的身子骨,得靠“搜索 Skill”這碗湯藥撐住。
世界向前發展,總有代價。
食品工業消滅了饑荒,但是那些特色的鄉土味道再也沒有了;AI 消滅了知識饑荒,但是那些通宵達旦在搜索引擎上尋找精確信息的日子再也回不去了。
既然世界不能倒帶,那就得給新問題打新補丁。
現在流行的 Skill,其實就是 AI 的補丁。
AI 自己不會的,或者做不好的,人就打包好 Skill 讓它直接調用嘛!
實際上,一個 AI 如果只選一個 Skill,它就必須選搜索 Skill——因為這是 AI 服務人時用到最多的能力。
其他 Skill 都算是情人,只有搜索 Skill 是過日子的老婆。
你猜猜,在現在最火的龍蝦的技能市場 ClawHub 上,將近 28000 個技能,下載量第一的搜索引擎插件是啥?
竟然是“百度搜索 Skill”。。。
![]()
如果你跟著剛才的思路看到現在,其實也不會覺得意外。
首先中文搜索就是全球搜索的一大主流需求;其次帶“常識檢查”的搜索又是剛需(這里的常識可不僅僅是普通常識,還有中國特色的常識,你懂的);再次還得便宜實惠。
這三條放在這一卡,AI 可選的只有”百度搜索 Skill”了。。。
但對于百度來說,這也許是個好機會:
用二十多年的技術和成本優勢打出這個“不得不用”的局面,然后在這個局面里贏得 AI 的信任,奪回更多人的尊重,不也是好事一樁么?
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.