![]()
美國洛杉磯時間2026年1月13日,博古睿研究院宣布了2025年博古睿論文獎公布獲獎名單,三位得主分別為中文區的黃鑫、劉驍奔,以及英文區的阿尼爾·塞斯(Anil Seth)。
本文選取了第二屆博古睿論文獎的英文獲獎文章,由薩塞克斯大學(University of Sussex)認知與計算神經科學教授、意識科學研究中心主任阿尼爾·塞斯撰寫,由博古睿研究院授權「神經現實」轉載。
![]()
幾百年來,人們夢想自己能夠扮演上帝的角色,去創造真實人類的人工版本。每一次突破性的新技術浪潮的到來,都會一次次引燃這個夢想,而這一次人工智能(AI)帶來的浪潮尤其巨大。至少從某些方面來講,目前我們周圍的AI系統,已經算得上具有了智能。我們可以肯定,它們還會變得越來越智能。但問題是,它們具有,或可能具有意識嗎?
人工意識這個想法,歷史雖悠久,卻不怎么美好。從猶太神話里的泥人約瑟利,到瑪麗·雪萊的弗蘭肯斯坦、斯坦利·庫布里克《2001太空漫游》里的電腦HAL、亞歷克斯·加蘭的《機械姬》,以及石黑一雄《克拉拉與太陽》里的機器人克拉拉,人類文化沒完沒了癡迷于對人工身體與合成心靈的創造——這些被造出來的東西不僅能夠思考,而且有所感受。然而,至少對于牽涉其中的人類而言,事情的進展往往沒有那么順利。如果按照目前的道路發展下去,人工智能可以具有真正的意識,那么,大量麻煩的問題就會一涌而出。
有人認為我們已經做到了。2022年接受《華盛頓郵報》采訪時,谷歌工程師布萊克·勒莫因(Blake Lemoine)就他當時正在研究的AI系統(一個名叫LaMDA的聊天機器人)做出了一個驚人斷言,他說這個機器人具有意識,擁有感受,并且在很重要的意義上,就像是一個真正的人。1盡管媒體對此爭相報道,勒莫因的說法卻并未受到嚴肅對待。谷歌隨后以違反公司保密政策為由,將他解雇了。但AI的車輪卻依舊滾滾向前。
但是勒莫因提出的問題并未消失。因為一個人違反了保密政策而解雇他,不意味著他說的就是錯的。隨著AI技術不斷提升,機器意識這一問題浮現的頻率越來越高。該領域里最前衛的思想者大衛·查默斯(David Chalmers)認為,有意識的機器在不太遠的將來就可能出現(文獻1)。AI先驅、諾貝爾獎獲得者杰弗里·辛頓(Geoffrey Hinton)甚至認為,這已經實現了。22024年末,一群知名學者發表了一篇廣為流傳的文章,認為有必要嚴肅對待AI系統的福利問題(文獻2)。對于包括AI專家與神經科學家在內的很多人而言,現在的問題在于機器意識何時出現,而非能否出現。
我們如何看待有意識的人工智能的前景至關重要。這對于AI系統自身而言是重要的,因為意識賦予了它們道德地位。這對我們人類也很重要。如果我們真的覺得我們的AI伴侶能夠感知一些事情,那么我們心理上的脆弱性就可能會被利用,我們倫理上的輕重緩急也會被扭曲。如果我們像對待無感覺事物那樣對待看起來有意識的機器,那么我們自己的心靈也會變得殘忍。
或許更重要的一點在于,對于AI意識的思考,會影響我們對于人性的理解,以及我們對于意識經驗之本性的理解;而生命之所以值得一過,恰恰是因為我們擁有意識經驗。如果我們輕易地把自己臣服于被我們創造的機器,那么在高估了機器的同時,我們也低估了自己。
認為AI有意識的幾個誘因
我們究竟為何要開始思考“AI是否可能有意識”這個話題呢?畢竟,計算機與生物有機體截然不同。而在目前關于意識為數不多的共識里,就包括這樣一個主張:意識的載體是肉體,而不是金屬。
我們認為AI可能有意識的第一個理由,來自我們的心理結構。作為人類,我們知道自己是有意識的,且我們樂于相信我們也是有智能的。因此,我們自然而然認為,智能與意識這兩個東西往往一起出現。但是,二者僅僅在我們身上一起出現,不代表它們總是如此。
智能與意識是不同的事物。智能主要圍繞的是“做事”(doing):解決字謎、組裝家具、應對棘手的家庭狀況、步行去商店——這些都涉及某種類型的智能行為。關于智能的一個有用的通行定義如下:智能指的是通過靈活的手段完成復雜目標的一種能力。當然還有很多其他定義,但它們都會強調一個系統的功能性能力:一種將特定輸入轉化為特定輸出的能力,把事做成!
因此,一個人工智能系統的好壞,就取決于其完成某種智能行為的能力,盡管這里的行為不僅限于類人的形式。相比之下,通用人工智能(AGI)的概念里,確實明確了以整體的人為參考對象。AGI的目標在于,完全匹配甚至超越人類的認知能力(文獻3)。(還有另一個概念——超級人工智能(ASI),即當AI自身進化到一種超出我們的理解并且失控時產生的現象。這種超級智能往往在我們各類未來世界中,伴隨著更為嚴峻的存在境況而橫空出世。)
與智能不同,意識主要圍繞的是“存在”(being)。半個世紀以前,哲學家托馬斯·內格爾(Thomas Nagel)便提出了一個著名的觀點:“一個有機體具有有意識的心靈狀態,當且僅當存在某種東西能夠解釋‘作為那個有機體是什么樣子’(what it is like to be that organism)”(文獻4)。意識恰恰是正常的清醒狀態與深度的昏迷狀態之間的差異。大腦功能,尤其是知覺(如顏色、形狀、味覺、情緒與思想等等)具有體驗性的一面,而正是這個側面賦予了我們的生命以質感與意義,如晴朗天空的蔚藍色,第一口咖啡的苦澀滋味與刺激感等等。
AI系統在某種程度上確實具備某種形式的智能,因為它們顯然能夠做一些事情,但是要說有“作為ChatGPT的樣子”這回事,就難說得多了。
人們之所以傾向于將智能與意識綁定,可以追溯于三種內置的心理偏見:第一種偏見是人類中心主義。我們傾向于透過人類的視角看待事物——將人類的情況當作是標準的典范,而不僅僅是多樣的屬性組合在一起的一個具體例子。第二種偏見是人類例外主義。很不幸,我們習慣于將人類物種放置于各類序列的頂端,有時候甚至將其歸入完全不同的一個序列(如中世紀的自然階梯觀所說,與其他各類動物相比,我們可能更加接近神與天使)。第三種偏見是擬人主義。這是指,僅從一些表淺的相似性出發,將人類特質投射在非人類事物上的傾向。
將這些偏見放在一起考慮,我們要解釋的事情就不奇怪了:當事物展現出我們認為具有典型人類特征的能力(比如智能)的時候,我們會自然而然將我們覺得獨屬于人類的其他典型特質,比如理解、心靈與意識,也投射到那些事物上。
在誘惑我們產生誤導性的直覺這一點上,語言這種智能行為顯得特別有效。這大概是由于語言是人類例外主義的一個基石。(在特定的立場看來,至少就我們目前所知,尤其是與其他動物相比,人類語言確實看起來體現了不同的秩序。)如OpenAI的ChatGPT或Anthropic的Claude等大語言模型(LLMs),已經成為人工意識研究熱潮里的主要焦點。據我所知,沒有人主張DeepMind的AlphaFold是有意識的,盡管它在底層機制上與LLM非常相似。所有這些系統都在硅基上運行,它們都含有人工神經網絡,以及其他激動人心的算法創新,比如Transformer。由于AlphaFold的主要領域是預測蛋白質的結構,而不是語言,因此它無法像其他熱門模型那樣,觸動我們的心弦。
我們自己使用的語言也很關鍵。試想當大語言模型生成了錯誤信息的時候,我們會非常自然地說它產生了“幻覺”。人類所具有的幻覺主要是一種有意識的體驗,只不過它沒有與現實建立穩健的連接(有人稱之為“不受控的知覺”)。當我們聽到不存在的聲音時,當我們眼前浮現出逝去親人站在床腳時,我們就處于幻覺狀態。當我們說AI系統有“幻覺”時,我們已隱隱地賦予其一種擁有體驗的能力。如果非要類比于人,說它們在“瞎扯”(confabulate)或許準確得多。對人而言,瞎扯就意味著編造一些東西,卻沒有意識到自己是在胡編亂造。這里涉及的主要是“做”,而不是“體驗”。
當我們將意識體驗與據說獨屬于人的屬性(如智能或語言)相等同時,在意識明明不存在的地方,我們更容易覺得自己找到了意識;而在意識的確存在的地方,反而會錯過它。可以肯定,我們不應簡單地預設,隨著AI越來越智能(聰明),意識一定會隨之而來。如果你聽到有人說真正的人工意識會在AGI發展的某一個臨界點突然涌現出來,那肯定是人類例外主義在作祟。
也有其他偏見在起作用。一種有力的觀點認為,AI里的一切都在經歷指數級的變化。無論是摩爾定律衡量的原始算力,還是每次大型科技基礎模型迭代帶來的新功能,技術的變化確實非常快速。指數級的增長動搖了我們心理上的安全感,讓我們覺得我們曲線前方的圖景總是更加陡峭,而過去的發展顯得稀松平常。關鍵在于,不論你在曲線的哪一個位置,情況一直是這樣——這就是指數級增長的本質。恰恰是由于這個特點,我們的心理總傾向于去相信自己正處在重大轉變的拐點上——而有什么轉變能比創造出真正的人工意識更加“重大”呢?但是,在一條指數曲線上,每個點都是轉折點。3
最后,技術狂熱主義也頗具誘惑性。在電影《機械姬》開頭,程序員凱勒對發明家內森說:“如果你創造出了有意識的機器,那不是人類的歷史,而是造物主的歷史。”如果我們感覺我們身處一個技術-歷史的拐點,且我們恰巧是其中的一位建筑師,那么,那種普羅米修斯式的誘惑——那種給人類帶去曾經只屬于天國之物的感覺——必定是極難抵御的。隨著奇點的到來,那種狂喜帶來的標志性成果就是永生——承諾我們可以逃離日漸腐朽的生物性身體并永遠活下去(或至少是存在下去),在硅基云端達到永恒。這或許解釋了這套“機器意識即將到來”的宣言為什么在技術圈內,而不是圈外更加流行。
學者亞當·別克(Adam Becker,文獻5)將這種把意識投射給AI的傾向描述為一種幻想性視錯覺(pareidolia)——一種在事物中看出特定模式的現象,比如從一片吐司里看出一張臉,或者在一個肉桂面包里看到特蕾莎修女等(圖1)。這是一個貼切的描述。但是,承認我們具有引發視錯覺的心理偏見僅僅是第一步。為了處理真正的人工意識到底是否可能這個問題,我們需要更深入的探索。
![]()
圖1: 肉桂面包里的特蕾莎修女
意識與計算
“有意識的人工智能”這個想法,預設了意識是一種計算或“信息處理”。更具體而言,它預設了只要提供某種恰當類型的計算,就足以讓意識從中產生。這一預設被哲學家稱為計算功能主義(computational functionalism,文獻6)。該預設處于理論非常底層的位置,以至于要意識到這個預設本身就很難。但這個預設就是計算功能主義,事實就是如此。如果如我所認為的那樣,這個預設錯了,那么真正的人工意識根本無從談起,至少對于我們熟悉的AI形態而言就是這樣。
要挑戰計算功能主義,就要深入討論什么是“計算”,并理解對于一個計算機或大腦這樣的物理系統而言,“做計算”到底是什么意思。根據那個預設,計算(至少是我們熟悉的那種計算)對于意識是充分的。接下來,我將概述四種相關的直覺,來動搖上述預設。
直覺1:大腦不是計算機
首先也是最重要的是,大腦不是計算機。大腦是一個碳基計算機這個隱喻,影響巨大,并且看起來很有吸引力:心靈是軟件,大腦是硬件(文獻7)。這個隱喻產生了很多豐碩的成果,它為我們理解大腦的功能提供了許多洞見,也啟迪了當今大部分AI。為了理解這個隱喻的深刻影響并發現其局限,我們回到早期的計算機科學與神經生物學,重訪那些先驅們的思想。
這個故事里的巨人,非阿蘭·圖靈(Alan Turing)莫屬。早在20世紀50年代,他就萌生了機器可能具有智能的想法(文獻8)。這比他提出關于計算的正式定義還要早十幾年,他提出的定義后來成了我們技術的基礎,并定義了后世所理解的計算機(文獻9)。
圖靈對于計算的定義是極其有力且高度普適的(盡管我們將看到,也不是完全普適)。它涉及的是將一個數集映射到另一個數集——換句話說就是一種算法。我正在使用的筆記本電腦,以及運行最新AI模型的服務器,都奠基于“通用圖靈機”這個抽象概念之上。“通用圖靈機”指的是,一個原則上能夠運行任何算法的系統。這種滿足通用目的的能力,是圖靈計算強大且無處不在的一個原因。
這個概念從實際的工程學角度來說,還有另一個主要優點,即它可以用來清晰地區分軟件與硬件。圖靈計算——算法——應當做同樣的事情,與具體在什么計算機上運行無關。圖靈計算原則上獨立于具體基質,它不依賴于任何具體的物質材料。(實踐來說,圖靈計算最好被描述為具有一定的基質“靈活性”,但你并不能從隨便任何材料里建構出一臺可用的計算機,比如奶酪就無法勝任。)圖靈計算的這一特質使得它在實踐中非常有用,這就是為什么計算機可以出現在手機上,而不僅僅存在于我們的心靈中。
就在圖靈留下其歷史印記的同一時期,神經生物學家沃爾特·皮茨(Walter Pitts)和沃倫·麥卡洛克(Warren McCulloch)在一篇具有里程碑意義的論文中指出,由高度簡化、抽象的“神經元”組成的網絡可以進行邏輯操作(文獻10,圖2)。學者S. C. 克萊尼(S. C. Kleene)后來證明,這些人工神經網絡具有“圖靈完備性”(Turing complete),即它們理論上可以實現任何圖靈計算與算法(文獻11)。
![]()
圖2:麥卡洛克-皮茨網絡。輸入信號X1-X4,乘以權重w,和一個偏差量(另一個輸入)一起求和,然后經過一個激活函數,通常是某種Sigmoid函數(‘S’形曲線),最終得到輸出Y。
把這些想法合在一起,我們就獲得了在數學上兼具便捷性、有效性、簡單性以及美感的“強強聯姻”。一方面,我們可以忽略復雜的關于大腦的神經生物學,只把它當作簡化的抽象神經網絡,每個神經元只是整合輸入然后再輸出。另一方面,這樣可以使得我們獲得圖靈計算能夠提供的一切——而這本身已經足夠了。
這種強強聯姻的好處,清楚體現在了它所生的孩子們身上——如今AI驅動的那些人工神經網絡。它們直接繼承了麥卡洛克、皮茨與克萊尼的遺產,同時也具有圖靈意義上的基質靈活性。因此毫不令人意外,“大腦無非就是神經網絡算法的碳基版本”這一想法,通過目前AI浪潮所帶來的種種令人印象深刻的誘惑,而被不斷地強化。
但這里就開始有麻煩了。當我們觀察大腦內部的時候,并沒有發現類似于軟件與硬件的、所謂“心件”(mindware)與“濕件”(wetware)的明顯區分。我們對于生物大腦的復雜性了解越多,就越會發現,里面的豐富性與動態性遠超無生命的一堆硅。
大腦活動模式的演化,發生在多個空間與時間尺度上——從大規模的皮層區域,到神經遞質和神經回路的細枝末節——所有這些,都與分子層面的激烈的代謝活動深度交織在一起。即使是單一的某個神經元,也具有令人嘆為觀止的復雜性。作為一部生物機器,它始終在繁忙地運作與調控,維持著自身存在的統一性與延續性。4
與計算機(即使是運行神經網絡算法的計算機)不同,對于大腦這東西而言,區分其“所做”與“所是”是非常困難甚至是不可能的。
事實上,我們也沒有好的理由指望這樣的一種清晰區分。現代計算機里所謂軟件與硬件的清晰區分,是人類根據圖靈提出的原理設計出來并外加于計算機的。生物進化遵從不同的限制,并且具有不同的目標。從進化的視角來看,并不存在明顯的選擇壓力能夠使得不同的大腦類似于不同的計算機:就計算機而言,硬件與軟件的區分可以使得不同計算之間具有完美的互操作性,但是不同大腦之間并不存在這樣的互操作性。事實上,情況恰恰相反:與大腦的自然進化不同,持續維護軟件與硬件的明確區分十分耗費能源——從現代服務器農場所需要的巨額預算中,這昭然若揭。
這一點很重要,因為那種認為大腦就是人肉圖靈機的想法,恰恰來自尺度上的清晰區分,來自圖靈一開始定義計算機時所強調的那種基質獨立性。如果你無法區分大腦之所做與大腦之所是,那么上面所說的那種簡潔性與功能性的數學聯姻,就會分崩離析。相對應地,我們更沒有理由去認為,生物“濕件”的意義就是單純服務于算法“心件”。
真實大腦在多個尺度上的深度整合性——哲學家有時稱之為“生成性固守”(generative entrenchment,文獻13)的另一個后果在于,下面這種情況也將變得不可能:用一個硅基對應體去替換某一個神經元后,依舊可以完美地保持該神經元的功能,保持其輸入輸出的行為。5比如,某些神經元會通過尖峰放電去清除新陳代謝所產生的廢物(文獻14)。如果想要用一個完美的硅去替代這些神經元,就要求我們創造出一種基于硅的全新代謝機制,但硅可能根本不適合做這種事情。無縫替代一個生物神經元的唯一方法,就是使用另一個生物神經元,更理想而言,只能用同一個神經元。
這一點的重要性在于,它揭示了那種流行的“神經元替代”思想實驗里的薄弱之處。我們被誘導去想象這樣一種情景:大腦的各個部分被功能上的硅基對應物逐步替代(文獻15)。這個思想實驗試圖說明的結論是,認知或意識這類屬性也具有基質獨立性(或者對于硅而言,具有基質靈活性)。這類思想實驗在今天的人工意識研究中占據顯要位置,它試圖支持人工意識的可能性。杰弗里·辛頓最近在一個采訪里援引了這一觀點,他聲稱有意識的AI已經在我們周圍出現了。6但是一旦我們注意到用完美的硅去替代大腦的任何部分其實都不可能,這個論證一開始就會不成立。7
還有一點值得說明:在與時間的關系上,數字計算機與大腦差異巨大。在圖靈世界里,重要的只有序列:A到B,0到1。任意的兩個狀態轉化之間,可能間隔1微秒或一百萬年,但它們依舊是同一個算法,同一個計算。但是對于大腦或一般性的生物系統而言,時間是物理的、連續的、無處不在的。生命系統必須在熵增的軌道上,持續地對抗衰老與無序,因為熱力學第二定律是不可違背的。這意味著神經生物學活動與設計出來的算法不同,前者依賴連續性的時間。8此外,如哲學家們很早就強調過的(文獻17),意識經驗自身具有豐富的動態性與內在的時間性。它是流動的,而不是從一個狀態跳閃到另一個。將大腦抽象成枯燥的算法與序列空間,既歪曲了生物學,也歪曲了意識流的現象學。
隱喻最終只是隱喻,一旦混淆了隱喻與物自體,我們就總是容易陷入困境。通過“圖靈眼鏡”去分析大腦,將會低估其生物上的復雜性,同時高估其發揮功能時所具有的基質靈活性。當我們真正從大腦本身出發理解大腦的時候,就會發現,那種認為多尺度的生物活動無非是實現抽象算法的一個底層硬件的想法,看起來相當幼稚。大腦并不是肉制圖靈機。
直覺2:市面上的其他競爭理論
第二個直覺是,目前存在其他的理論可能性。我先前提到,圖靈計算功能強大,但具有局限性。圖靈計算——算法——在一組有限離散數字與另一組數字之間建立映射,只強調序列的意義。圖靈算法誠然有效,但存在超出此種計算的很多類別的動力學特性與函數。圖靈本人就發現了很多不可計算函數,比如著名的“停機問題”,即在一般情形下,是否存在一種方法來判定某個算法在給定特定輸入的情況下是否會終止(文獻9)。令人震驚的是,凡是連續的(無限可分的)或隨機的(具有內在不確定性)函數,都不屬于圖靈計算所能涵蓋的范圍。(算法確實可以模擬非計算過程,但模擬并不等于生成或實現該過程;這一點將在后文第四種直覺中詳述。)
生物系統充斥著連續的或隨機的動力學過程,它們深嵌于物理時間之中。認為只有嚴格意義上的圖靈可計算過程才與意識或認知、心靈的某些方面有關,顯得非常武斷。電磁場、神經遞質流以及其他許多過程,都超出了算法的邊界,但它們在理解意識方面都可能具有關鍵作用。
這些限制鼓勵我們以更寬廣的視角去理解大腦,在理解其工作機理的時候,超越圖靈世界,去考慮更寬泛意義上的計算與動力學形式。這里有著豐富的歷史經驗可供參考,未來也激動人心。
最早的計算機并非數字圖靈機,而是一種在連續時間里運作的模擬裝置。一個極佳的例子是約2000年前、用于天文計算的“安提凱希拉天體儀”(Antikythera mechanism)。9
模擬計算機的再度興起是在AI早期,以被現在忽視的“控制論”形式出現;其核心是反饋與控制,而不是抽象的符號操作(文獻18)。最近,神經形態計算(neuromorphic computation)重新興起(文獻19),它利用了神經系統中比當前人工神經網絡方法所采用的那種“卡通化”神經元模型更為細致的特性。較新的“可朽計算”(mortal computation)概念則強調,通過開發與其物質基質不可分割的算法,我們有希望實現能耗節約;所以當某一具體基質不再存在時,那些算法也會“死掉”(文獻20)。
![]()
圖3:瓦特調速器(Watt Governor)。它并不是一臺計算機。
有很多正常發揮功用的系統,人們并不會將它們叫作“計算”系統,因為那樣做沒有必要或者用處不大。約三十年前,認知科學家蒂姆·凡·杰爾德(Tim Van Gelder)通過蒸汽機調速器的形式,給出了一個經典案例(圖3,文獻21)。這些調速器通過簡單的機械結構和物理原理來調節蒸汽在發動機中的流量:當發動機轉速升高時,兩顆沉重的懸臂球會向外擺動,關閉閥門,減少氣流。相比之下,如果我們采用“計算式調速器”,讓它先感知轉速,再計算所需的控制操作,然后發送精確的信號來開啟或關閉執行器,不僅會極其低效,而且會完全誤解真實的運作機制。
與凡·杰爾德的洞見相呼應,圍繞“動力學系統”的認知科學研究、強調心靈之生成性(enactive)、具身性(embodied)、嵌入性(embedded)和延展性(extended)的研究(所謂4E認知科學),都會拒斥完全用算法去解釋心靈與大腦。它們都嘗試基于研究連續動力學過程的數學——如吸引子、相空間等(文獻22,23)——去探索其他可能性。對于意識而言,大腦的這些特征都是必要的,而它們依賴的是非計算性的過程,或者說,一種寬泛意義上的計算(文獻24)。10
這些其他的市面理論與哲學上所謂的功能主義仍然是相容的,即認為心靈的屬性(包括意識)依賴于大腦的功能架構(文獻27)。這個領域里有一個容易導致混淆的傾向,那就是將十分自由的功能主義立場與“計算功能主義”等同。前者所謂的“功能架構”可以包含很多東西,而后者則給前者添加了一個額外的設定,即唯一有效的架構一定是計算性的,然后進一步就轉化成了特定的圖靈計算(文獻6)。
機器意識的問題在這里的挑戰在于,我們的探索越是遠離圖靈世界,我們就面臨越多的隨機性、動力學特性與熵,就越是要去了解某一物質基質的具體特性。問題不再是何種算法能夠產生意識,而是轉化成:對于一個類似于大腦的系統,如果想要實現具有意識的潛能,它究竟應該是什么樣子的?
直覺3:生命很重要
我的第三個直覺是,生命(大概率而言)是重要的。這里指的是,生命的屬性對于意識而言是必要的,雖然未必是充分的——這個想法被哲學家約翰·塞爾(John Searle)稱為“生物學自然主義”(biological naturalism,文獻28)。我在此首先要聲明,我并沒有一個支持該立場的板上釘釘的論證,且我覺得根本上不存在這類論證。但這個立場值得嚴肅對待,至少出于一個前文提到的簡單原因:目前大多數人公認的具有意識的那些對象,都同時也是有生命的。
意識為什么需要有生命呢?關于這一點要說的還有很多(文獻16,29),但由于篇幅有限,我只展開講其中的一個思路。
我們可以從這樣的一個觀察開始:我們有意識地知覺到的關于世界的信息,取決于大腦“最佳猜測”,而不是一種對于感覺輸入的直接“讀取”。這來自著名的“預測加工”理論。該理論認為,基于對原因的預測,大腦會持續對接收到的感官輸入進行解釋與更新(文獻30,31)。此處,感官信號被詮釋為一種預測誤差,反映在各知覺層次上,大腦所期待的內容與其實際獲得的內容之間存在差異,而大腦會隨時隨地不斷調整,將這類預測誤差最小化。這種觀點認為,意識經驗屬于一種“受控幻覺”——一種從頂部到底部、從內部到外部的知覺推理,其中大腦關于當下發生之事的預測會不斷被感覺信號校準(文獻16)。
![]()
圖4:作為受控幻覺的知覺。對于咖啡杯的意識經驗,根植于大腦對于感覺數據起因(黑色箭頭)的預測(灰色箭頭)。
讓我們繼續看:這類知覺上的“最佳猜測”不僅成就了關于世界的經驗,也成就了“自我”的經驗,即成為經驗主體的那種經驗。一個典型的例子就是關于身體的知覺:身體既是世界內的一個對象,也是自我性的某些重要維度(如情感與情緒)更基本的來源。這些維度都是一種知覺的“最佳猜測”形式:關于什么屬于或不屬于身體的一部分的推理,關于身體之內生理狀況的推理——這一過程也被叫作“內感推理”(interoceptive inference)(文獻32)。11
知覺預測不僅有助于識別什么正在發生,也有助于控制與調節:當你能夠預測時,你就能夠控制。這最主要適用于對身體生理狀態的預測,因為大腦的首要職責就是保證身體處于活著的狀態,保證特定的生理指標(比如心率與血氧)處于合理的區間。從我們的具身體驗所感受到的樣子本身出發,這些也是可以理解的。比如,與視覺不同,情感與情緒的經驗主要是通過效用價值(如情況是變好,還是變壞)來刻畫的(文獻34)。
這種生命的驅動力并不產生于某個特定的底層;它遍布在每一個細胞里,遍布在代謝之分子熔爐里。將預測誤差最小化,是生命烈焰里一直存在的過程,它與生命的物質性本身密不可分。生物材料的自生特征,與支撐我們知覺經驗的貝葉斯機制之間,存在著直接的數學關聯。12
這些思路現如今交融在一起。首先,我們依稀看到了解釋生命與解釋意識之間的聯系。關于情感或情緒的意識經驗,甚至最基本的“活著的感受”,都與身體控制及調節過程中所體現的知覺預測完美對應。第二,知覺預測背后的過程可能與我們的生物本性深度綁定在一起;作為生物系統,我們持續地對抗著熵增,不斷進行著自我的重生。第三,這一切都是非計算性的,至少是非算法性的。在真實身體與真實大腦中,預測誤差的最小化是一個連續動力學過程。它很可能與其物質基礎密不可分,而并不單單是純粹算法(那些只存在于純凈宇宙里的序列與符號)的一個肉體實現。13
把這些放在一起考慮,就會獲得這樣的一個圖景:我們對于周遭世界的體驗,以及對于沉浸在其中的自我體驗,都是通過(through)、伴隨(with)且依憑于(because of)活生生的身體而展開的。或許能夠點燃意識方程的,并不是信息處理,而是生命本身。
直覺4:模擬不是例示
第四個也是最后一個直覺,把握起來相對容易,即承認模擬(simulation)不同于例示(instantiation)。由于其通用性,圖靈計算機最強大的能力之一就是能夠模擬任何事物,甚至是(或者說尤其是)本身非計算性的事物。但是我們不應混淆地圖與真實的地表,不應混淆模型與實際的機制。
計算性模擬一般缺乏被模擬物的因果效力與內在屬性。對一個消化系統的模擬,實際上并不能消化任何東西。對暴風雨的模擬,并不能弄濕任何事物。如果我們模擬一個活著的被造物,我們并沒有因此創造生命。一般而言,一個對X的計算性模擬,并不會導致X的存在;或者說,并不會例示(instantiate)X,除非X本身就代表著那個計算過程(算法)。換個方向說,X能被計算式模擬這一事實,并不代表X本身就是計算性的。
在多數情況下,模擬與例示的區分顯而易見,沒有爭議。就意識而言也理應如此。一個關于大腦或身體的計算性模擬,無論做得多么細致,只有在意識的本質就是計算的時候,才能夠產生意識。換句話說,想要成功通過某種高精度的“全腦模擬”去例示意識,已經預設了計算功能主義。但我們在論述第一個直覺時已經說了,這個假設很可能是不成立的,尤其不應被接受為一條公理。
這便揭示了“大腦作為計算機”這個隱喻的貧乏之處。如果你認為關于大腦,一切要緊的東西都可以通過抽象的神經網絡加以刻畫,那么認為對大腦的模擬能夠例示所有大腦的屬性(包括意識)將看起來十分自然。因為在這種情況下,事物的計算性已被預設好了。這就是通過圖靈眼鏡看的大腦。然而,如果你感興趣的是更為精致的大腦模型,其中每一個神經元與其他精細的生物物理過程所體現出來的復雜性,都可以得到刻畫,那么認為模擬大腦可以實現大腦的屬性,就顯得沒那么自然了。因為那樣精致模型的有趣之處恰恰在于,它表明,除了圖靈計算,依舊存在著其他重要的事情。
因此,夢想將心靈意識上傳到高精度的模擬大腦,并投入大量資本,以便于能在硅基王國獲得永生的人們,可能面臨一個矛盾——如果真的存在一個十分精致的大腦模型,那么你在其中存在的概率,并不高于英國氣象局的計算機里能夠產生一場冰雹的概率。
但是,請大家坐穩!有沒有可能,萬事萬物早已全部處于模擬之中?可不可能我們整個宇宙,包括星球里的幾十億身體、大腦與心靈,以及冰雹與氣象局的計算機,全部都是一個高級計算機模擬出來的代碼片段?而這個計算機可能正在被神一樣的技術狂人操控著?這就是“模擬假說”,其主要提出者是哲學家尼克·博斯特羅姆(Nick Bostrom,文獻37)。這個想法仍然風行于技術圈。
博斯特羅姆指出,如果上述模擬真的發生過,類似情況的數量將遠遠多于一開始的“基底現實”。這反過來說明,我們生活在模擬世界里的概率遠高于實在本身。他整理了很多統計學論證去發展這個想法。但值得注意的是,他曾指出這些論證所需要的一個必要前提,卻默認它是成立的。或許有點令人意外,這個前提就是:“一個運行了合適程序的計算機,將具有意識”(文獻同上,p.2)。但如果這個假設不成立,我們具有意識這一簡單事實,就足以證明我們并不處于模擬世界之中。在哲學家仔細討論各類假設的有效性的時候,這么強的一個假設,居然在沒有被仔細考察的情況下被直接接受了。這一事實本身就暗示了關于心靈與大腦的計算主義對我們產生的深遠影響。這也表明,當我們不能成功區分現實的模型與現實的本身時,就會將自己陷入存在性的混亂。
讓我們來總結一下。許多社會與心理學要素,包括已經被充分理解的認知偏見,會令我們傾向于過度向機器投射意識。計算功能主義(主張算法計算足以產生意識)是一個非常強的預設,但一旦考慮到大腦與(經典)計算機許多深刻的差異之后,這個預設就會被動搖。存在著很多其他的市面理論,既涉及不同的技術(如神經形態計算、腦類器官等),也涉及理解大腦的不同框架(如動力學系統理論)。將關于知覺的預測加工理論與生理學上的調節與代謝理論相結合,我們會看到一種新的可能性,也就是說,意識與我們作為活生物這一本性密切相關。最終,無論多么精細,模擬意識的生物學機制并不能帶來真正的意識,除非計算功能主義恰好成立。
上述每一處直覺都可以單獨成立。你或許可以贊成反計算功能主義的論證,同時卻不支持生物自然主義。模擬與例示的區分,也不依賴于對我們認識偏見的承認。但是這些想法放在一起,它們會相互支持。對計算功能主義的質疑,將強化區分模擬與例示的重要性。除了圖靈計算之外的市面理論,會使得基于生命去理解意識的想法變得更加可信。
總體而言,這些論證共同說明,即使AI越來越智能,意識也不太可能突然出現;甚至一般而言,我們目前熟悉的、以圖靈機為核心的硅基AI系統,都不太可能產生意識。但同時,我們所說的一切,并沒有徹底排除人工意識之可能性。
在這些思考的基礎上,我們應該做什么呢?
我們要做(或不做)什么?
涉及意識這個話題,事實本身至關重要。這不僅因為祖先模擬、心智上傳等等依舊只是神話,更因為具有意識體驗的事物擁有其他事物所不具備的倫理與道德地位。至少,如果關于道德的判斷都建立在擁有意識能力這個基礎上,那么,把這些事物的道德地位納入考量就顯得十分自然了。
因此,清晰思考真正的人工意識之前景,在此時此地顯得至關重要。我已經提出了反對AI具有意識的一些論證,但我也可能犯錯。這個領域里,生物自然主義依舊是少數立場。有許多關于意識的理論,其框架也是基于計算過程的(文獻38,參見文獻39的綜述)。這些理論并沒有提出產生意識的充分條件,它們也一般會繞過對于計算功能主義的承諾。這些理論對于計算功能主義或許是滿意的,卻不會去預設它。但這不意味著它們都是錯的。所有關于意識的理論都充滿著不確定性,沒有人知道創造真正的人工意識到底需要什么,或一定不需要什么。對此,任何對自己的理論確信無疑的人,理性上講都是言過其實。
這種不確定性使得我們進退兩難。雖然這聽起來是廢話,沒有人應當去故意制造有意識的AI,不論是出于某種思慮欠佳的技術狂熱,或是基于其他理由。創造有意識的機器,將會造成倫理上的災難(文獻40)。如果我們那樣做了,我們將給世界引入新的道德主體,并可能帶來新的苦難形式,且這種苦難(可能)會以指數級的速率增長。即使我正確論證了以圖靈機為原型的計算機不能產生意識,其他新興技術依舊有這個可能,或許是通過另外的計算形式(如模擬式的計算或神經形態式的計算等),或許是通過快速發展的合成生物學方法。在我看來,相比任何新一波的大語言模型,我們更應當擔憂的是,意識在大腦類器官(通常由人類胚胎干細胞(文獻41)培育出的、類似大腦的結構)中意外涌現的可能性。
但我們還有其他擔憂。當談到AI對社會的影響時,把實際上具有意識的AI系統與那些看起來僅僅像是有意識的AI系統區分開來至關重要。雖然前者不可避免存在很大的不確定性,但那些僅僅是看起來有意識的系統卻已近在咫尺。正如谷歌工程師布萊克·勒莫因(Blake Lemoine)所論證的那樣,對我們中的一部分人而言,它們已經在那了。那些看起來有意識的機器帶來了嚴肅的倫理問題,但這些問題與實際上擁有意識的機器引發的倫理問題完全不同(文獻29)。這里的問題首先關心的是那些被造物對我們的影響。我們要么決定去關心它們,重新劃定我們的道德關懷圈,要么決定什么都不做,聽憑我們的心靈變得殘暴——這個論證至少可以追溯到康德的倫理學講義。看起來具有意識的AI所帶來的倫理問題,已經引起了AI領域內一些重要人物的關切,比如穆斯塔法·蘇萊曼(Mustafa Suleyman,微軟AI首席執行官)14、約書亞·本吉奧(Yoshua Bengio,文獻42)等。但這毫不意味著相關問題已經得到了有效控制。
此處經常被忽視的一個要素在于,即使我們知道或相信AI不具有意識,我們可能也難以拒斥那種它們具有意識的感覺。我們的心靈關于人工意識產生的錯覺,或許與很多視錯覺一樣,難以琢磨。繆勒—萊爾錯覺(圖5)中的兩條線具有一樣的長度,但它們依舊看起來是不同的。這一點與我們見過這個錯覺的次數無關,哪怕你見過這個圖很多次,你依舊無法拒斥你所感覺到的內容。我們對于AI可能有意識的感覺,可能與我們關于“AI意識”的思考和理解毫無關系。
![]()
圖5:繆勒—萊爾錯覺。兩根線長度相當。
此外,由于尚不存在關于意識的必要與充分條件的共識,因此也不存在任何決定AI是否具有意識的定義性測試(文獻43)。《機械姬》的情節就是圍繞著這個困難而展開的。影片借鑒了著名的圖靈測試(正如圖靈本人清楚認識到的,它測試的是機器智能而非意識),機器人Ava的創造者內森認為,“真正的測試”在于:在告知其造物是一臺機器的前提下,觀察那個被測試的工具人Caleb,是否仍然會覺得它/她是有意識的。這后來被稱為“加蘭測試”(Garland test,文獻44)。該測試并非測試機器意識本身,而是在什么條件下,人類會被說服去相信一臺機器具有意識。
盡管面對諸多不確定性,我們仍有必要采取一些有根據的倫理立場,這一點的重要性點明了人類的另一個習慣:很不幸,我們面對那些值得被賦予道德考量的對象時,向來反應很遲鈍,比如在對待許多非人類動物乃至其他人類的問題上。因此,我們可以很合理地猜想,拒絕賦予AI以意識,是否會讓我們再次站在歷史發展的對立面?最近關于“AI福祉”的呼吁,很大程度上便來自這一擔憂(文獻2)。但是,我們有很多理由認為,AI的情況很有可能與之前不同。我們的心理偏見讓我們更容易錯誤肯定而不是錯誤否定。與非人類動物的情況不同,AI的那些明顯奇特之處或許在于,它與人類相比,二者的相似性更多的是在與意識無關的方面。
靈魂機器
盡管泥沙俱下,AI無疑在改變社會。辨明AI帶來的明顯挑戰,充分利用它帶來的機遇,已經夠困難了;而宣傳“機器意識時代即將到來”等夸張言論,將加劇我們面臨的混亂。考慮到技術本身與公眾認知的快速變化,對AI意識的希望與隱憂形成清晰的認識,就顯得十分迫切而必要了。
真正的人工意識將改變一切,且在很多方面會朝向壞的方向。誤以為AI有意識的那些人類錯覺,本身就具有獨特的風險,尤其是當我們持續被真正的可感機器這個想法所吸引和迷惑的時候。我希望本文能夠提供一些回應這些危機的思想工具,對那些關于必然性或絕對不可能的過度自信的斷言加以反思,最終為理解我們自身作為人類、作為動物、作為生物之本性,也為我們的未來,提供一些希望。
AI的未來史尚待書寫。AI可發展的方向也不存在什么必然性。否則,我們就會過度受制于我們的概念慣習,被劣質的科幻小說忽悠,被那些茍延殘喘的技術公司所編造出來的故事隨意擺布。時間很有限,但總體來看,我們依舊有機會去決定我們真正想要或不想要的AI是什么樣子的。
哲學家香農·瓦洛爾(Shannon Vallor)將AI描述為一面鏡子,我們在鏡中可以看到身后的入射光線,這些光線就是我們被數字化的過去(文獻45)。我們設計的算法里反映著我們的存在,但我們自身也反映了能被設計的算法。瘋狂追捧通用AI或具有意識潛能的AI所帶來的最新惡果,就是這種對于心靈的機械化。一方面是生物大腦與人類經驗的豐富性,另一方面是具有深度偽造技術的聊天機器人(或任何最新的AI魔法)的信息處理機制。如果我們把這二者混為一談,就會對自己——我們的心靈、大腦和身體——造成嚴重的傷害。如果我們輕易委身于被造的機器,我們便高估了它們,也低估了我們自己。
或許出人意料,這些思考最終把我引向了靈魂的問題。對于許多人,尤其是被理性與科學啟蒙的現代人來說,靈魂的概念早已過時,仿佛只應存在于石器時代。如果這里所謂的靈魂,指的是理性與意識背后的某種非物質本質,并且可以獨立于身體而存在,那么拋棄這個概念,算不上什么嚴重的錯誤。但還有很多其他對于靈魂的理解。早在笛卡爾之前,古希臘的psyche?概念就把靈魂與呼吸聯系在一起。15在世界的另一端,印度教所謂的靈魂,ātman,則將我們最內在的本質與一切經驗的基礎狀態相聯系:那是一種不受理性思維或任何特定意識內容影響的、純粹的、證悟性的覺識。
對于硅基天堂的卡通幻想,以及心智上傳、離體的外在存在、在云端與其他蒙召者重逢等主題,恰恰回到了笛卡爾的靈魂觀。計算機,或者更準確地說,計算,畢竟是不朽的,對于算法的根本信仰許諾了某種不被身體玷污的純粹理性(盡管已經有很多證據表明,理性與情感之間存在緊密關聯,文獻47)。但這些大概率都是南柯一夢,它們帶來的并不是一片后人類時代的樂土,而是硅基的荒原。
真正重要的不是笛卡爾式的靈魂。靈魂,不應當是你或我的那種無軀體的人類例外主義不朽本質。或許使得我們成為我們的,需要在更根本的源頭去追溯:我們可能需要回到古希臘與印度的平原,在那里,我們最為內在的本質呈現為一種尚待生發的、純粹的“活著”的感覺,更像是呼吸而非思想,更像是肉身而非機器。
社會學家雪莉·特克爾(Sherry Turkle)曾說,技術會讓我們忘記自己對生命的認知(文獻48)。現在,是時候重新記起這些了。
注釋及參考文獻
注釋
1https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
2https://www.youtube.com/watch?v=vxkBE23zDmQ
3說得再諷刺點,炒作AI的半魔法特質或許有助于維持高股價、維持硅谷的天價薪酬與投資。是不是有人說這是“泡沫”?
4這個過程也叫自生(autopoiesis),其詞源是希臘語的“自我—生產”。在某種意義上,自生性是生命系統的定義性與標志性的特征(文獻12)。
5這里我所謂的“不可能”,指的是規律意義上的可能性,大概意思是在給定的物理學定律的框架下的可能性。對我而言,這一點比單純的概念可能性更有趣也更相關。簡單來說,所謂概念的可能性,僅僅是說可以融貫地設想。
6https://www.youtube.com/watch?v=vxkBE23zDmQ。
7我承認我不喜歡所有類似的基于“可設想性”的思想實驗。這些思想實驗僅僅具有修辭學上的說服力,但實際上它們缺乏對于系統的細節知識,而且往往依賴的是概念可能性,而非規律可能性。聲名赫赫(狼藉)的“僵尸論證”也面臨類似的問題(文獻16)。
8這就是為什么數字計算的能源成本極高。計算是外在于時間的,但是計算機卻不是。為了保證一秒的確是一秒,零秒的確是零秒,我們需要耗費大量的能量,因為即使是硅,也無法擺脫熵的魔爪。
9https://en.wikipedia.org/wiki/Antikythera_mechanism
10如何區分計算與非計算,當然取決于具體的定義(文獻24)。計算的寬泛定義一般會放棄基質靈活性。極端來說,一些物理學家聲稱萬物都是計算性的,計算性是宇宙的基本甚至是唯一特征(文獻25)。如果真的如此,那么計算功能主義之正確性,將顯得過于稀松平常,但這對于AI意識的可能性問題毫無幫助,因為,比如,一個椅子,也是計算性的。除了這些極端立場之外,關于“物理性的丘奇—圖靈論題”,存在著許多不同的解釋,關鍵在于,物理宇宙里有多少內容是可計算的(文獻26)。參見注釋13。
11內感就是從內部出發的、對于身體的感覺。
12這個關聯是直接的,但可能很難追蹤。一種方式是通過聲名狼藉的“自由能原理”(文獻35)。這一原理認為:那些會主動維持自身存在的事物(如生命系統),必須存在于它們在統計意義上期望自己所處的狀態之中(比如魚會“期望”自己存在于水中)。這意味著需要最小化熱力學上的“自由能”。這種自由能與信息論的“自由能”類似,或許在概念上是相通的,信息論的自由能又與預測加工里的預測誤差密切相關。
13有人主張,生命本身也具有內在計算性。這類觀點會引用馮·諾依曼關于“計算”的“通用構造器”(Universal Constructor),這個定義強調的是自我復制(文獻36)。然而,如果“計算”的概念變得如此寬泛,并把代謝與自生(autopoiesis)這類依賴具體物質基礎且界定生命本身的過程也納入其中,那么“計算”的概念就不再具備所需的基質靈活性,進而也無法支持下面這個主張:支撐意識的這些“計算”可以脫離其生物學語境,被算法化地遷移并在硅基系統中實現。在這種情況下,我們依然無法獲得AI意識。
14https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming
15拉丁語中的anima也是如此,它是基督教“靈魂”(soul)的詞源;而希伯來語中的 nephesh 也可以被理解為一種浸潤了整個生命體的“活力”(life force)。關于這一點的精彩歷史,參見文獻46。
參考文獻
1.Chalmers, D.J., Could a Large Language Model be Conscious? 2023.
2.Long, R., et al., Taking AI welfare seriously. 2024.
3.Legg, S. and M. Hutter, A collection of de?nitions of intelligence. Frontiers in Arti?cial Intelligence and Applications, 2007. 157: p. 17-24.
4.Nagel, T., What is it like to be a bat? Philosophical Review, 1974. 83: p. 435-50.
5.Becker, A., More everything forever. 2025: Basic Books.
6.Shagir, O., The rise and fall of computational functionalism, in Hilary Putnam. 2010, Cambridge University Press: Cambridge. p. 220-250.
7.Cobb, M., The idea of the brain: A history. 2020, London: Pro?le Books.
8.Turing, A.M., Computing Machinery and Intelligence. Mind, 1950. 49: p. 433-460.
9.Turing, A.M., On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 1936. 42: p. 230-65.
10.McCulloch, W.S. and W. Pitts, A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biology, 1943. 52: p. 99-115.
11.Kleene, S.C., Representation of events in nerve nets and ?nite automata, in Automata Studies, C. Shannon and J. McCarthy, Editors. 1956, Princeton University Press: Princeton, NJ. p. 3-42.
12.Maturana, H. and F. Varela, Autopoiesis and Cognition: The Realization of the Living. Boston Studies in the Philosophy of Science. Vol. 42. 1980, Dordrecht: D. Reidel.
13.Cao, R., Multiple realizability and the spirit of functionalism. Synthese, 2022. 200: p. 506.
14.Chintaluri, C. and T.P. Vogels, Metabolically regulated spiking could serve neuronal energy homeostasis and protect from reactive oxygen species. Proc Natl Acad Sci U S A, 2023. 120(48): p. e2306525120.
15.Haugeland, J., Programs, causal powers and intentionality. Behavioral and Brain Sciences, 1980. 3: p. 432-433.
16.Seth, A.K., Being You: A New Science of Consciousness. 2021, London: Faber & Faber.
17.Varela, F.J., The specious present: A neurophenomenology of time consciousness, in Naturalizing Phenomenology: Issues in Contemporary Phenomenology and Cognitive Science, J. Petitot, et al., Editors. 1996, Stanford University Press: Stanford, CA. p. 266-329.
18.Dupuy, J.-P., On the origins of cognitive science: The mechanization of mind. 2nd ed. 2009, Cambridge, MA: MIT Press.
19.Mead, C., How we created neuromorphic engineering. Nature Electronics, 2020. 3: p. 434-435.
20.Hinton, G., The forward-forward algorithm: some preliminary investigations. 2022.
21.Van Gelder, T., What might cognition be if not computation? Journal of Philosophy, 1995. 92(7): p. 345-81.
22.Stewart, J., O. Gapenne, and E.A. Di Paolo, Enaction: Toward a new paradigm for cognitive science. 2010, Cambridge, MA: MIT Press.
23.Varela, F.J., E. Thompson, and E. Rosch, The embodied mind. 1991, Cambridge, MA: MIT Press.
24.Anderson, N.G. and G. Piccinini, The physical signature of computation: A robust mapping account. 2024, Oxford: Oxford University Press.
25.Wheeler, J.A., Information, physics, quantum: The search for links, in Proceedings III International Symposium on Foundations of Quantum Mechanics. 1989: Tokyo. p. 354-358.
26.Copeland, J.B., The Church-Turing thesis, in The Stanford Encyclopedia of Philosophy, E.N. Zalta and U. Nodelman, Editors. 2024, Metaphysics Research Lab, Stanford University.
27.Putnam, H., Psychological predicates, in Art, Mind, and Religion, W.H. Capitan and D.D. Merrill, Editors. 1967, Pittsburgh University Press: Pittsburgh. p. 37-48.
28.Searle, J., Biological naturalism, in The Blackwell Companion to Consciousness, S. Schneider and M. Velmans, Editors. 2017, John Wiley and Sons Ltd.
29.Seth, A.K., Conscious arti?cial intelligence and biological naturalism. Behavioral and Brain Sciences, 2025.
30.Clark, A., Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behav Brain Sci, 2013. 36(3): p. 181-204.
31.Hohwy, J., The Predictive Mind. 2013, Oxford: Oxford University Press.
32.Seth, A.K., Interoceptive inference, emotion, and the embodied self. Trends Cogn Sci, 2013. 17(11): p. 565-73.
33.Craig, A.D., How do you feel? Interoception: the sense of the physiological condition of the body. Nat Rev Neurosci, 2002. 3(8): p. 655-66.
34.Seth, A.K., The cybernetic bayesian brain: from interoceptive inference to sensorimotor contingencies, in Open MIND, J.M. Windt and T. Metzinger, Editors. 2015, MIND Group: Frankfurt A.M. p. 35(T).
35.Friston, K.J., The free-energy principle: a uni?ed brain theory? Nat Rev Neurosci, 2010. 11(2): p. 127-38.
36.Richards, B. and B. Agüera y Arcas, Life is inherently computational, and consciousness probably is too.Behavioral and Brain Sciences, 2025.
37.Bostrom, N., Are you living in a computer simulation? Philosophical Quarterly, 2003. 53(11): p. 243-255.
38.Dehaene, S., H. Lau, and S. Kouider, What is consciousness, and could machines have it? Science, 2017.358(6362): p. 486-492.
39.Seth, A.K. and T. Bayne, Theories of consciousness. Nat Rev Neurosci, 2022. 23(7): p. 439-452.
40.Metzinger, T., Arti?cial su?ering: An argument for a global moratorium on synthetic phenomenology.Journal of Arti?cial Intelligence and Consciousness, 2021. 8(1): p. 1024.
41.Bayne, T., A.K. Seth, and M. Massimini, Are There Islands of Awareness? Trends Neurosci, 2020. 43(1):p. 6-16.
42.Bengio, Y. and E. Elmoznino, Illusions of AI consciousness. Science, 2025. 389(6765): p. 1090-1091.
43.Bayne, T., et al., Tests for consciousness in humans and beyond. Trends Cogn Sci, 2024. 28(5): p. 454-466.
44.Shanahan, M., Conscious exotica. Aeon, 2016.
45.Windt, J.M. and T. Metzinger, The philosophy of dreaming and self-consciousness: What happens to the experiential subject during the dream state?, in The New Science of Dreaming, D. Barre> and P. McNamara, Editors. (in press), Preager Imprint / Greenwood: Estport, CT.
46.Makari, G., Soul machine: The invention of the modern mind. 2016, London: W. W. Norton.
47.Damasio, A., Descartes' error. 1994, London: MacMillan.
48.Turkle, S., The empathy diaries: a memoir. 2021: Penguin.
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.