文/陳根
最近張文宏拒絕AI進入醫療,引發了很大的關注,也引發了一些爭論。我想從專業的角度來跟大家探討關于AI到底能不能值得完全信任,這背后就涉及到一個非常核心的問題,也就是大模型當前一種被困擾的關鍵問題,不是算力,也不是算法,也不是數據,而是AI幻覺的問題,這是可以說是AI一個無法真正解決的問題。
AI幻覺的頑疾與本質
在人工智能(AI)迅猛發展的時代,幻覺(Hallucination)已成為大型語言模型(LLM)如ChatGPT、Claude和Gemini的普遍問題。當然,中文大模型我們就不談了,基本上只能由于娛樂,還談不上可靠度的層面。
AI幻覺是指AI生成看似合理卻實際錯誤、虛構或誤導的內容。這種現象并非技術故障,而是AI體系的結構性缺陷。或者說是AI的“原罪”導致的,因為從一開始AI的數據就來源于人類的知識庫,而人類的知識庫就充滿著大量的謊言與胡說八道。
![]()
盡管研究人員一直在嘗試通過檢索增強生成(RAG)、微調和事實檢查等方法緩解,但幻覺始終揮之不去。2025年的一項OpenAI研究指出,幻覺源于訓練和評估過程對猜測的獎勵,而非不確定性的承認。其實核心并不是這些問題,而是在于AI的最底層邏輯,也就是兩個核心問題所導致,這也是我重點跟大家探討的問題。以及為什么我一直說,AI幻覺問題是無法真正解決的原因。
首先,人類知識數據本身充斥幻覺,導致AI繼承并放大這些缺陷;其次,AI的自我生成內容機制形成惡性循環,進一步污染訓練數據。這些因素就導致,AI幻覺不是可完全根除的“bug”,而是AI認知范式的內在局限,類似于人類認知的“不可知論”困境。
人類知識數據的固有幻覺——AI的“原罪”繼承
AI幻覺的根源在于其訓練數據:這些數據本質上是人類知識的鏡像,而人類知識遠非完美,也并非準確無誤,除了已經被驗證的一些數學與物理的公式,定律之外,大部分的知識都不是真理,也不是無誤的。
LLM通過海量文本學習模式,但這些文本充斥錯誤、偏見和不確定性,導致AI無法區分“真實”與“似真”。正如MIT Sloan的一項分析所描述的,生成AI的幻覺源于訓練數據的固有缺陷,包括虛假信息和偏見。而我們人類知識的“幻覺”體現在幾個層面:
首先,數據的不完整性和低頻事實問題。OpenAI的研究強調,LLM在預訓練中預測下一個詞,但低頻或任意事實(如寵物生日)無法從模式中可靠推斷,只能通過猜測填充。 這類似于人類記憶的“填補空白”機制:大腦基于模式回憶,但容易出錯,甚至很多回憶是伴隨著幻覺的。
IBM的分析進一步指出,如果訓練數據集偏倚或不是絕對正確的代表性,AI會“幻覺”出反映這些偏見的模式。最典型的就是,歷史文本中性別或種族偏見,以及歷史的虛假敘事會被AI繼承,導致輸出中出現虛構的“事實”。
其次,人類知識的固有不確定性。聯合國大學的一項評論指出,AI幻覺不是“精神錯亂”,而是預測錯誤,源于訓練數據的局限和缺乏真實理解。這是因為我們人類知識本身就是構建的,比如科學理論更迭(如從地心說到日心說),歷史敘事主觀(如不同文化對事件的解讀)。
而對于AI而言,其擁有的能力就是類似于人類的表達方式,具備的是優先流暢性而非真相,當數據有矛盾時,它會生成“統計上合理”的虛構。即使訓練于“準確”數據,AI的生成本質仍可能組合出新錯誤,因為它缺乏“世界模型”——人類般的語境理解。
第三,數據質量的系統性問題。AI訓練,或者獲取的文本數據,本身就容易受人類錯誤影響,尤其是一些用于分析的結構化數據更容易出錯。Berkeley的一項研究指出,訓練數據的偏見、過度擬合和合成數據污染進一步放大幻覺。這些問題就構成了我前面所提到的,AI的“原罪”。即,AI從人類“幻覺”中誕生,無法超越其源頭。即使清理數據,人類知識的動態性和主觀性(如文化神話、政治宣傳)使“純凈”數據集成為烏托邦。
![]()
OpenAI也承認,幻覺在基礎模型中,在數學上不可避免,除非徹底重構訓練范式。其實重構訓練范式也不能徹底解決AI幻覺的問題,因為我們依然無法回避一個最底層的問題,就是人類的知識庫本身的非真理性問題。因此,這一方面揭示AI幻覺的哲學根基:它鏡像人類認知的有限性,無法實現柏拉圖式“理想形式”的絕對真理。
AI自我生成數據循環——惡性反饋的放大器
AI幻覺的第二個頑固原因在于其自我生成機制:模型輸出內容被用于后續訓練,形成“AI-on-AI”反饋循環,進一步注入幻覺。
Harvard的一項框架分析指出,這種循環導致生成的不準確污染未來數據,引發“模型崩潰”。這類似于生態系統的退化,即污染源自內部,難以逆轉。如果用人類來形容的話,就是精神病患者訓練精神病患者,最終可能會導致最初的精神病患者崩潰。
首先,生成內容的固有不確定性。由于LLM基于統計模式生成,而非事實檢索,導致輸出雖連貫卻易虛構。當這些輸出回流訓練(如通過網絡爬取),幻覺就會被強化。《紐約時報》的一篇互動報道顯示,AI生成數據越來越難檢測,導致未來模型攝入自身輸出,輸出范圍縮小,遠離現實。這種現象,如果用一個比喻來說,就是“自食循環”。尤其是,如今60%網絡內容由AI生成,訓練數據已經變得非常不可靠。
其次,暴露偏見和漂移效應。如果我們在訓練時使用“ground truth”數據,但推理時依賴自身生成,這就會導致早期的錯誤在循環中不斷被放大。Nature的一項2024年研究證實,遞歸生成數據訓練會導致模型崩潰。
并且會很快出現多樣性喪失,輸出趨于單一。這形成惡性循環,帶來的后果就是幻覺生成更多幻覺數據,用于下一代模型。然后在循環中,數據模糊和隨機解碼又會加劇這一問題。
第三,循環的系統性風險。即使使用RAG或知識圖譜,數據污染仍不可避免,因為網絡已經充斥AI內容。這從哲學上類似于尼采的“永恒輪回”:AI陷入自我復制的循環,無法逃脫內在缺陷。人類干預(如人工標注)雖然可以起到緩解,但規模化訓練依賴海量數據,難以徹底凈化。
因此,我可以非常明確的說,AI幻覺無法真正解決,因為它根植于人類知識的固有局限和AI生成-訓練的閉環邏輯。前者是“輸入垃圾,輸出垃圾”的放大;后者是自我污染的反饋陷阱。
即使技術進步,如自信度間隔或非幻覺模型,幻覺仍如人類認知的“海森堡不確定性”——本質上不可消除。從這個層面來看,我們就能回答張文宏所提到的這個觀點,或許一些人認為AI已經很強大了,張文宏不引入AI是不是落伍了?其實并不是,而是他對AI有比較深刻的了解,至少說明他認知到了AI強大背后的本質問題,也就是AI幻覺不可能被徹底解決。
所以,對于臨床的醫生而言,尤其是醫學院的學生,如果不能對病理機制有非常深刻的理解,而是過早的依賴于AI來輔助診斷的話,最終可能會陷入一種被AI誤導的循環中。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.