該圖片可能由AI生成![]()
最近一則消息引發熱議:測試顯示ChatGPT最新版本在回答問題時,多次引用了馬斯克旗下的Grokipedia作為信息來源。繼Claude之后,又一主流AI模型“中招”,社區瞬間炸鍋。
![]()
但這真的是什么大事嗎?
冷靜下來看,這件事的技術本質其實很簡單。Grokipedia是在這些模型完成訓練之后才上線的,也就是說,模型根本不知道這個網站是什么來頭。當你讓AI進行網絡搜索時,它會從大量鏈接中挑選看起來最相關的結果。Grokipedia恰好在某些搜索中排名靠前,于是被選中了。這跟“用AI訓練AI”完全是兩碼事。
然而,恐慌情緒還是蔓延開來。
有人擔心右翼偏見會滲透進AI回答。有人質疑為什么要用一個“AI生成的維基百科”當來源。還有人開玩笑說,等著AI引用《我的奮斗》吧。
這些擔憂背后有一個更深層的問題:我們對AI信息來源的焦慮,折射出我們對信息本身的不信任。
事實是,維基百科也有它的偏見問題。長期活躍的編輯者形成了自己的文化圈層,“可靠來源”的定義權掌握在特定群體手中。Grokipedia的出現,某種程度上是對這種壟斷的一次實驗性挑戰。它讓AI來審核人類編輯的內容,看看會發生什么。
當然,用戶發現的問題也很真實。有人親手修復了Grokipedia上關于《魔法少女小櫻》的大量幻覺內容,每一集的劇情簡介幾乎都是瞎編的。這提醒我們,任何信息來源都需要驗證,無論它看起來多么權威。
有趣的是,當有人親自測試時,用同樣的問題問ChatGPT,結果引用的是維基百科、PBS、大英百科全書,根本沒有Grokipedia的影子。媒體報道的“多次引用”與實際體驗之間的差距,本身就值得玩味。
最終,這可能只是一個很快會被修復的小問題。OpenAI只需要把Grokipedia加入黑名單就完事了。但真正的挑戰在于:隨著網上AI生成的內容越來越多,AI如何避免陷入“摘要的摘要”這個無限循環?
一位評論者說得好:這讓我們回到了AI出現之前的老問題,人們獲取信息卻從不核實來源。
也許,我們對AI寄予了太高的期望,把它當成通往客觀真理的魔鏡。但它終究只是一個工具,反映的是整個互聯網的混亂與偏見。在這個信息過載的時代,獨立思考和交叉驗證的能力,比以往任何時候都更加珍貴。
reddit.com/r/singularity/comments/1qn325q/after_claude_now_chatgpt_is_also_uses_grokipedia/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.