
內嵌于系統底層的幻覺機制將反向塑造人類的認知習慣,迫使人類從技術的創造者與駕馭者,退化為算法輸出內容的審核員與修補匠。
根治AI幻覺的終極方案,在于推動人工智能從純粹的“符號處理系統”進化為具備物理交互能力的“具身智能”。
原文 :《AI幻覺本體論困境的技術哲學審視》
作者 |復旦大學馬克思主義學院博士生 鄺光耀
圖片 |網絡
在二十一世紀的第三個十年,算法算力雙重爆發,以生成式預訓練變換器為基座的大型語言模型(LLMs)的異軍突起,標志著人類技術文明進入了一個令傳統認識論既感迷惑又深覺不安的“符號合成時代”——人類文明的知識生產方式從基于主體經驗與邏輯推演的有機生成,轉向了基于概率統計與向量計算的自動生成。然而,這種能夠以前所未有的流利度編織文本、代碼乃至多模態內容的“能指機器”,始終被一種本質性且無法擺脫的陰影所纏繞——AI“幻覺”(Hallucination)現象。
AI幻覺機制反向塑造人類認知習慣
在計算機科學的實用主義視角下,幻覺通常被簡化為一種應當被“糾錯(debug)”的技術噪音,一種源于數據臟污或擬合偏差的工程學失誤。然而,當這種所謂的“失誤”能夠以高度確信的口吻捏造歷史、虛構判例甚至重組科學公理時,它便不再僅僅是代碼層面的故障,而構成了斯蒂格勒在《技術與時間》中提出的“第三持存”意義上的系統性污染。從技術哲學角度深入審視AI幻覺生成的微觀機制,其根源在于“統計相關性”對“邏輯因果性”的暴力替代,以及高維向量空間對豐富語義世界的降維壓縮:在深度學習的訓練過程中,大語言模型通過反向傳播算法習得的是詞匯與詞匯在海量文本中共同出現的概率分布,而非概念與概念之間內在的邏輯必然性。這種機制實際上構成了一種“抽象的暴力”,它將現實世界中那些充滿辯證張力、時間不可逆性以及復雜因果鏈條的客觀真理,強行壓平為一個靜態的、幾何化的語義地圖。因此,當模型面對其訓練語料中未曾覆蓋的長尾知識或需要跨領域綜合判斷的復雜情境時,它無法像人類智能那樣進行基于第一性原理的因果推演,而只能依據表層的語義相似性進行概率上的“猜想”。這種被美國語言學家本德(Emily M. Bender)稱為“隨機鸚鵡”的運作模式,恰體現了當前生成式AI在語言處理上的本質特征:它極其熟練地操縱著語言的能指(形式),卻始終無法真正觸及語言的所指(意義)。
![]()
如果放任這種基于概率擬合的虛假認知幻覺在數字文明生態中無序蔓延,我們將面臨一種極為嚴峻的“認知熵增”危機。隨著生成式人工智能技術的普及,大量包含事實錯誤與邏輯漏洞的合成數據正以指數級速度被注入互聯網的公共信息池中。最新的計算機科學研究已經提出了“模型崩潰”的理論預警:即當下一代AI模型開始大量使用由上一代模型生成的合成數據進行訓練時,其對現實世界的表征能力將出現不可逆轉的退化。這種遞歸性的污染類似于近親繁殖帶來的基因缺陷,會導致模型對真實世界的認知分布逐漸收斂于一種狹隘、平庸且充滿謬誤的狀態,最終喪失捕捉現實復雜性與多樣性的能力。對于人類社會而言,這種技術異化的后果更為深遠。當算法系統逐漸成為人類獲取知識的主要中介,這種內嵌于系統底層的幻覺機制將反向塑造人類的認知習慣,迫使人類從技術的創造者與駕馭者,退化為算法輸出內容的審核員與修補匠。我們不得不在海量的“超真實”信息中耗費巨大的心力去甄別真偽,這種認知負荷的增加不僅降低了社會整體的知識生產效率,更在潛移默化中侵蝕著人類主體性的根基,使得批判性思維與獨立判斷能力在算法的“喂養”下日漸萎縮。
實現認知的“外部錨定”
面對AI幻覺這一系統性的“本體論困境”,任何試圖在現有封閉架構內通過參數微調或指令工程來消除幻覺的努力,都注定只能是治標不治本的權宜之計。治理AI幻覺的根本出路,在于推動人工智能從封閉的“內部記憶”模式向開放的“外部檢索”模式轉型,即實現認知的“外部錨定”。法國技術哲學家西蒙東認為,一個成熟的技術物應當是一個能夠通過與外部環境的遞歸互動來實現自我調節的“具體化”實體。因此,真正的人工智能不應是存儲在參數矩陣里的死知識,而應是像生命體一樣,通過持續接收環境反饋來校準自身認知的動態過程。這意味著未來的AI系統必須擁有“數字感官”和物理執行器,能夠動態地接入物聯網、實時數據庫乃至物理世界。通過這種“技術環境”的重建,大語言模型的內容輸出將不再是一個孤立的預言家,而是一個在不斷變化的世界中持續學習的“探索者”。AI系統也將不再是一個自言自語的孤立智力,而是一個鑲嵌在人類知識網絡中的動態節點,它通過與外部信息環境的持續互動來更新自身的認知狀態,從而大幅降低因訓練數據滯后或記憶混淆導致的事實性謬誤的出現概率,重建數字理性的合法性基礎。
![]()
價值觀重塑引導技術發展回歸理性
除了外部知識的錨定,AI系統自身的“倫理內省”與“不確定性管理”同樣是治理幻覺不可或缺的內在維度。當前的生成式AI模型普遍存在著一種“過度自信”的病理特征,即在生成毫無事實根據的幻覺內容時,依然賦予其極高的概率置信度,這種“一本正經胡說八道”的現象極具欺騙性。對此,我們需要在算法層面引入嚴格的認知校準機制,通過貝葉斯神經網絡、熵值評估等數學工具,賦予AI一種類似于人類“元認知”的能力——即對自己“知道什么”和“不知道什么”的清晰的自我審視。一個真正具備可信度的智能系統,應當在面對其知識邊界之外的問題時,具備保持沉默或主動示弱的權利。它應當能夠誠實地向用戶輸出低置信度警告,或者明確承認數據不足,而非為了滿足生成的流暢性而強行編造。將“拒絕回答”的權利還給AI,不僅是技術魯棒性(robustness)的體現,更是確立“誠實計算”這一核心科技倫理價值的關鍵步驟。這標志著我們對AI的評價標準從單一的“生成能力”轉向了更為綜合的“認知誠實度”,這種價值觀的重塑將引導技術發展回歸理性,避免盲目追求AI全知全能的虛假神話。
![]()
從長遠的演進圖景來看,根治AI幻覺的終極方案,在于推動人工智能從純粹的“符號處理系統”進化為具備物理交互能力的“具身智能”。幻覺的本質,歸根結底是符號系統在脫離了物質世界的物理約束后產生的任意漂移。只有當智能體擁有了感知物理世界的“傳感器”和作用于物理世界的“執行器”,它才能在與客觀實在的碰撞中獲得檢驗真理的“試金石”。在具身智能的視域下,語言符號不再是懸浮的抽象能指,而是與觸覺、力覺、視覺等多模態感官經驗緊密耦合的行動指南。當一個AI系統必須為其在物理環境中的操作后果負責時,物理定律的不可違背性將對其認知模型施加最嚴厲的約束,迫使其推理過程必須符合客觀世界的因果邏輯。此時,真理將不再是概率空間中的優選解,而是物理實踐中的有效性。這種從“離身計算”到“具身交互”的本體論躍遷,將有望彌合符號與實在之間的鴻溝,使人工智能真正成為人類在探索未知世界時值得信賴的合作伙伴,共同構建一個基于真實、理性與責任的人機共生未來。
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1984期第3版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:程鑫云

《社會科學報》2026年征訂
點擊下方圖片網上訂報↓↓↓

![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.