![]()
如果一篇論文錯信了“AI幻覺”,會造成多米諾骨牌效應,引發一連串的數據錯誤復發,怎么破?用魔法打敗魔法,還是要靠AI工具。
開頭講兩個故事。
第一個故事,關于普遍性。
現在的學生和老師,都在普遍地使用AI。前幾天去親戚家串門,他正在教育他閨女不要用AI寫作文了,一定要自己寫。結果她閨女特別委屈地方告訴他:這是老師讓的,老師說寫完之后,要傳給AI,讓AI給出修改意見。
前段時間,我去參加了一個大學教授和我們這些民間自媒體從業者的論壇,我特意問了關于使用AI的問題,答案是老師們也在普遍用AI做課件。
第二個故事,關于準確性。
前段時間,良渚的自來水事件,鬧得沸沸揚揚,但是突然有個信息沖了出來,說農夫山泉在良渚有工廠,一時間快速發酵,幸虧事件查的及時,發這個微博的博主很快刪除了信息,并且道了歉,說是AI上查到的信息,搞錯了。一句搞錯,差點給企業釀成大禍。
很顯然,AI在過去的兩年中,已經證明了自己能夠給出比傳統搜索更優質答案的能力,人們也更愿意毫無底線地相信AI的答案,這種相信,在教授、媒體、教師、學術界、科學界、行政公務中都普遍存在,但是我們有沒有想過一個問題,如果AI在這些嚴肅學科領域,犯了良渚農夫山泉那個錯,帶來的后果會是什么?
我覺得就是蝴蝶效應。
一個媒體報道,或者一篇論文,用錯一個數據之后,會引發一連串的數據錯誤復發,最終徹底讓AI陷入一種認知錯誤,誤導后面所有的人,這是一個多米諾的關系。
百度文心,最近弄了一個“放心寫”功能,大大提高了媒體和教育行業的AI使用確定性,我實話實說,之前為了確保數據不出錯,我還是會對比幾個AI一起交叉驗證,然后再配合權威媒體的報道,確保自己不出錯,現在有了這個功能,直接把寫好的文章,傳給文心,有什么問題直接就會給我標注出來,我在線就可以修改,二次再審。
這等于給每個寫作者,加了一道風控,有沒有數據錯誤,有沒有政策解讀錯誤,有沒有論點論據錯誤,我在內部開玩笑,我們行業的校對可以徹底下崗了,的確,我們公司的校對下崗很久了。
為什么學術界、媒體界是AI最應該關注的對象?因為AI的很多數據來源要取自這里,如果這里出錯,會交叉污染數據,所以百度文心現在用“放心寫”,堵住這個交叉污染的可能性,是抵制AI幻覺的一個非常有效的手段。
我也試用了一下,拿“最近汽車行業監管政策解讀”這個問題生成了一篇文章,具體細節和最終成果我就不展開說了,只說結論:質量很可用,以對話助手的方式,達到了我以前用某些大模型的智能體的水平。
![]()
這個檢驗過程有意思,提示未通過部分,我專門查了一下,為什么AI判定「歐盟《新電池法》要求2027年動力電池回收利用率達到95%」不通過?原來法案是針對不同材料的,確實不能一概而論,很嚴謹。
![]()
再次重寫后通過,下載分享也很絲滑。
還有一點要提示,記住要把左下角的“事實校對”打開。
近期還看到一條訊息,LMArena大模型競技場新發布了最新排名,文心新模型ERNIE-5.0-Preview-1203以1451分登上LMArena文本榜,排名中國第一,特別是在創意寫作等方面表現突出。
值得點贊,不管從模型上還是應用上,文心在中文寫作方面都很強勁,目前在文心APP最新版本可以體驗最新的模型能力了。我了解到,放心寫中文寫作準確率已經超過了99%,幻覺率大大降低。
總之,我覺得未來如果要確保AI不產生過多幻覺,“放心寫”還真是一條可行之路。
首先,數據庫如何建立?
既然是一個幫助用戶避免AI幻覺的寫作工具,那就是要有一個屬于自己的細分數據庫,這個數據庫不是開放式的,“放心寫”采用的數據庫都是權威可信機構媒體和政府官網,并沒有從海量的互聯網數據中去辨別,幻覺往往是因為錯誤信息權重大于正確信息之后,產生的結果。而且這種干擾,目前來看,是完全可實行的。
所以,用來二次辨別的工具,數據庫一定不是開放式全網數據。
其次,在小細分領域循環。
現在,文心“放心寫”對于公文、教育課件、行業報告、會議紀要等領域,已經有強大的復盤能力,但是這種能力有個特性,就是服務辦公室工作比較多,并不是偏向娛樂和個人化需求,基本都是嚴肅話題,在這種特定場景中,數據就更容易保持干凈,這種干凈就可以傳染給外面的大數據庫。
第三,能夠幫助新手快速上手工作。
其實,對于很多辦公室新人,甚至新教師來說,如何規范自己的行文,規范自己的課件,是一件非常頭疼的事,因為這些東西,往往都有固定的格式,其實不需要太多個性化的東西,但是這個格式需要經驗,文心“放心寫”除了可以檢測錯誤之外,也可以幫你根據你提供的參考文檔調整格式。
在過去的一年時間里,AI在很多公司,有了一個新名字,背鍋俠。
以前,公司里的人們辦公過程中出了錯,會把鍋甩給供應商,說是供應商的錯,但是現在大家發現,AI也可以承接這種錯誤,這從側面也說明了一個問題,AI幻覺的確普遍性存在,是一個現實問題。
無數的專家在擔憂,我們社會未來的信息安全問題,人類在未來,到底還能不能真的分辨出哪些信息是真實的,哪些是AI杜撰出來的,今年良品鋪子的花生酥,被AI做出了一張花生長在樹上的圖,成了鬧劇,事實上,這種事情,以后這會越來越多。
百度這次做“放心寫”,算是從反方向做了一次嘗試,AI不僅僅可以是數據信息的提供者,也可以是數據信息的糾正者,幻覺可能是AI創造出來的,也可以是AI糾正的。
時間來到了2026年,AI的競爭很顯然會陷入一種白熱化,功能上的差異越來越小,那么下半場大家比什么?如果一個問題,所有AI給出的答案都大差不差,那么用誰都一樣。那么如果一個問題,有一個AI能夠給出不一樣的答案,并且能夠做到錯誤率很低,或者不出錯,這就是勝算。
確保自己和物理世界的強關聯,不出現幻覺,對自己的交付負責,這就是我心中AI后面的取勝法寶。
AI,在2026年,不能變成人們犯錯的背鍋俠,而應該是糾錯俠。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.