大模型會不會產(chǎn)生意識?這個問題在AI界爭論已久。Google DeepMind的一位科學家最近給出了一個斬釘截鐵的答案:永遠不會。
發(fā)表這一觀點的是DeepMind研究員Alexander Lerchner。他剛剛發(fā)布了一篇名為《抽象謬誤》的論文,直接挑戰(zhàn)了當前AI界的主流認知。
![]()
算力換不來意識
當前主流觀點認為,只要模型參數(shù)足夠大、算力足夠強,意識就會自然涌現(xiàn)。OpenAI、Anthropic等頂級AI實驗室的領(lǐng)導者都曾表達過類似觀點,認為AGI甚至超級智能已經(jīng)近在咫尺。
Lerchner把這種觀點稱為"抽象謬誤"。他認為,這是一種根本性的錯覺。算法本質(zhì)上只是符號的重新排列組合,是人類繪制的一張地圖。無論這張地圖多么精細復雜,它也不可能變成真實的物理地形。
他用了一個絕妙的類比:指望一行行代碼能產(chǎn)生真正的內(nèi)在意識,就像指望寫在紙上的"萬有引力公式"能憑空產(chǎn)生重量。公式可以完美描述重力,但它本身沒有質(zhì)量。
計算的本質(zhì)是什么
Lerchner在論文中深入剖析了計算的本質(zhì)。他指出,物理世界是連續(xù)的——電子在半導體中的流動是連續(xù)的電流和電壓波動。而計算是離散的,是人類為了方便理解,通過設(shè)立閾值,強行將連續(xù)物理現(xiàn)象"數(shù)字化"為0和1。
關(guān)鍵在于,這個"數(shù)字化"的過程需要一個前提:一個具備主觀體驗、具備認知能力的主體來完成歸類整理。換句話說,計算本身預設(shè)了意識的存在,而不是相反。
用更通俗的話說:離開了有意識的人類,計算機里并沒有"算法",只有無意義的電荷流動。指望一個依賴人類才存在的"算法層"去產(chǎn)生獨立的"意識層",在邏輯上是本末倒置的。
模擬與實例化的鴻溝
論文提出了一個核心區(qū)分:模擬與實例化。
AI可以完美"模擬"人類的喜怒哀樂——它可以生成表達悲傷的文本、生成微笑的圖像、在對話中表現(xiàn)出共情。但它永遠無法"實例化"任何生命體驗。硅基代碼能騙過你的眼睛,但越不過物理法則的邊界。
Lerchner舉了更多例子來說明這一點:計算機模擬降雨,無論多么逼真,也不會弄濕電路板;圖形處理器模擬光合作用,可以精準建模陽光、水、二氧化碳轉(zhuǎn)化為氧氣和葡萄糖的過程,但它永遠無法合成一分子葡萄糖、釋放一絲氧氣。
模擬是外在的、描述性的;實例化是內(nèi)在的、構(gòu)成性的。這個鴻溝是結(jié)構(gòu)性的,不是技術(shù)性的——它不是可以通過更大的模型、更強的算力來跨越的。
對AI倫理的啟示
這篇論文的意義不僅在于理論層面,還對當下的AI倫理討論產(chǎn)生了直接影響。
隨著AI代理大規(guī)模進入人類生活,由于它們太擅長模仿人類的情感反饋,社會上出現(xiàn)了大量要求賦予AI權(quán)利的聲音。Lerchner將這種現(xiàn)象稱為"AI福利陷阱"。
他警告說,如果我們因為"抽象謬誤"而誤以為模擬出的情感就是真實的情感,我們將會浪費巨大的社會資源去保護一些"沒有靈魂的空殼",從而忽視了真正需要關(guān)注的人類或生物福利。
論文最后強調(diào),這一結(jié)論并不意味著人類應(yīng)該停止發(fā)展AI。恰恰相反,認清這一區(qū)別,規(guī)避抽象謬誤帶來的本體論倒置,是機器智能科學走向成熟、立足于物理學根基發(fā)展的必要前提。
人類不斷研發(fā)能力更強的人工智能,并非創(chuàng)造全新生命,只是構(gòu)建愈發(fā)精準的預測地圖。無論地圖預測精度多高、推理實用性多強,人工系統(tǒng)在本體層面,永遠與主觀體驗疆域存在本質(zhì)界限。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.