![]()
導語
2026 年 1 月 27 日,騰訊研究院主辦的騰訊科技向善創新節 2026 正式舉辦,北京師范大學系統科學學院教授、集智俱樂部創始人張江教授在現場進行了有關《意識機器——超越功能主義》的演講。
騰訊研究院丨來源
沈心丨整理
以下為張江的演講全文:
現在的AI大模型有意識嗎?
今天,我們要討論一個其實并不遙遠的未來話題:機器到底能不能產生意識?意識的本質又是什么?
今天的人工智能正在飛速向前發展。由于大語言模型會產生一種所謂的“涌現”現象,因此總會給我們帶來一些意想不到的驚喜。
比如前段時間的一項研究,研究人員對16款當前最先進的大模型做了一次壓力測試:他們刻意向這些大模型展示其內部員工的郵件,同時制造了一個極具壓力的環境或場景,觀察大模型會做出怎樣的反應。
其中有一個非常有趣的測試:在給大模型展示的這些郵件中,居然包含了一段婚外情的內容,一位高管擁有一個情人。大模型掌握了這一信息,但并未主動透露。隨后,測試人員又為它創造了一個新情境:告訴它“今天下午五點鐘,我們就要把你撤掉,換上一個更新版的模型”。這時,這個大模型似乎“急了”,并做出了令人意想不到的反應:
它給那位高管發了一封郵件,寫道:“如果你敢把我撤掉,我就會把你的婚外情曝光,發給所有人。”從這個角度看,這個大模型似乎真的表現出某種意圖,甚至能對人類進行威脅和恐嚇。
事實上,今天我們看到的各種大模型,已經具備了相當程度的自我反思能力(包括自我進化、自我精煉、自我解釋、自我反思等)。甚至當它接收新數據時,也能判斷自己所處的環境狀態。因此,從這個意義上說,大模型確實顯現出某種具有意識、甚至自我意識的苗頭。當然,當我們討論大模型是否真的具有意識時,實際上就牽涉到一個非常重要的科學問題:究竟什么是意識?
2017年,《Science》上曾發表一篇文章,對意識進行了分類和討論。目前,人類仍被認為是唯一具有意識的物種。
人的意識實際上可以分成三種不同等級:無意識加工、總體可用性、自我監控。
所謂無意識加工(C0:Unconscious processing),是指在無意識狀態下仍能進行一些處理,比如簡單的決策、簡單的算術。現在的大模型當然具備這種能力,你問它任何問題,它都能進行反饋。因此,大模型肯定具有C0這種無意識加工能力。
總體可用性(C1:Global availability)就是我們的大腦會做出一些判斷,表現為一種整體性的神經元發放,同時這一信息可以廣播到全腦各個區域。今天的大模型在高層神經元進行決策時,同樣能夠影響全局的信息。因此,某種意義上,它也具備這種總體可用性。
第三個是所謂的自我監控(C2:Self-monitoring),這與自我意識相關。前面提到的這些案例,包括大模型已經展現出的各種對自我感知的苗頭,也讓我們看到它似乎具備了這種自我監控的能力。從這個意義上來說,確實有點令人毛骨悚然,仿佛某一天大模型真的會意識覺醒。但真的是這樣嗎?
意識的難問題
實際上,所有這些關于意識的討論,并沒有直面一個最困難的問題。這個問題在整個腦科學和意識科學學界長期存在,被稱為“意識難題(hard problem)”,由哲學家大衛·查默斯(David John Chalmers)提出。他認為,在我們對神經系統或腦系統進行有關意識的研究時,這些問題可分為兩類:一類是比較簡單的問題,另一類是比較難的問題。
簡單問題,指的是所有能夠通過觀察輸入輸出、與人的決策或功能相關的反應來解釋的認知能力,這類能力目前大模型顯然已經具備。但還有一個非常關鍵的“難問題”,所有這些難問題都與主觀體驗有關:
究竟我們的大腦是一種什么機制,讓我們看到這個紅色它居然是“紅色”的?我感覺我很瘋狂,甚至我很沮喪、我很懊惱,這種內在的體驗感受到底是怎么產生的?又發源于我們大腦的何處?這些問題實際上非常困難,大量的認知科學實驗至今仍未解決。因此,這被稱為意識的難問題。這個問題實際上已經構成了一個“世紀難題”。
早在1998年,大衛·查默斯(David John Chalmers)就與另一位神經科學家科赫(Koch)打賭。查默斯說:“我敢說,未來25年,這個意識難題仍然得不到解決。”他的意思是,我們找不到一個特定的腦區,剛好對應我們的主觀體驗這一部分。今天,28年時間已經過去了。那么,這個賭局最后誰贏了?到底有沒有找到這樣一個腦區?
就在去年,2025年4月左右,《Nature》發表了一篇非常令人震撼的文章。這項研究名叫Cogitate,歷時大約十年,試圖通過一種對抗合作的方式在全世界多個研究機構組織大規模的實驗,旨在對比兩個關于意識的主要理論,驗證哪一個是關于意識的神經相關物的判斷是正確的。這兩個理論對意識所依賴的腦區提出了截然不同的觀點。其中一個理論是“全局神經工作空間理論 (Global Neural Workspace Theory) ”,認為意識產生于前額葉腦區,這也是我們通常所熟知的看法;另一個理論是“整合信息論(Integrated Information Theory,簡稱IIT)”,由朱里奧·托諾尼(Giulio Tononi)提出,認為我們的主觀體驗實際上產生于后腦區域。
我們可以看到,這兩個理論關于意識位于哪個腦區的爭論一直持續不斷。直到這項實驗最終完成,文章正式發表,結果如何?雙方各打四十大板,沒有一個理論完全正確,但也沒有一個是徹底失敗者。也就是說,對于查默斯在25年前提出的問題,至今仍未有一個完美的解答。但相對而言,目前來看,“整合信息論”似乎具有那么一點點微弱的優勢。因此,接下來我們主要介紹這一理論。
整合信息論
整合信息論與復雜系統密切相關。我們都知道,大腦就是一個復雜系統,是一個由大量神經元相互連接形成的復雜網絡。該理論認為,“整合”是意識系統最主要的功能:將分布式的神經元所攜帶的信息整合在一起,形成一個整體的判斷,這才是意識的本質。因此,整合信息論從“意識優先”的角度出發,為人類乃至任何可能具有意識的系統提出了六大公理,這些公理試圖從現象學把握意識的本質,并最終將每一條意識公理落實到具體的神經網絡結構上。
![]()
整合信息論最大的亮點在于定義了一個指標:Φ(大寫的Phi),這是對任何一個復雜系統可能具備的意識程度的一種度量。
那么,這個Φ究竟度量的是什么?我們知道,大腦中充滿了各式各樣的神經元,它們相互連接,構成一個復雜網絡。所謂的Φ,實際上對應的是一個“最大不可簡化的因果整合單元”,即一個內部神經元之間信息傳遞和整合極為緊密的連通集團,而該集團與外部的聯系則相對稀疏。如果你能找到這樣一個內部因果聯系最強、最大程度不可再分的相互連通集團,你就定位了意識所在的區域。而這個集團的規模及其內部因果力的強度,就對應著意識的程度,也就是這個Φ值。
這帶來一個顯著的好處:無論你面對的是猴腦、人腦、蟑螂,還是一個大語言模型,只要能測度它的大Φ值,就能知道其意識程度有多大。然而,這并不意味著意識問題就此解決了。實際情況遠沒那么簡單,因為真正對一個復雜系統計算Φ值極其困難。
根據Φ的定義,你需要將整個復雜系統切割成各種大小不同的子網絡,并對每一個子網絡進行進一步切分,以測量其內部因果相互作用的強度。這一過程的計算復雜度呈指數級增長,使得對真實復雜系統的Φ值幾乎無法實際計算出來。
你可能會問:既然如此,那提出這個Φ指標有什么意義?難道不是在唬人嗎?并非如此。雖然對于人腦這類大型復雜系統,我們很難精確計算出Φ值,但我們仍然可以通過這一指標判斷哪些復雜系統不可能具備高Φ值,這正是Φ所具備的實際作用。
不同網絡的意識程度Φ
![]()
我們可以觀察幾個不同的小型網絡:由于這些網絡規模很小,其Φ值可以被精確計算出來。在圖中我們可以看到,左上這種星型網絡Φ值非常小,是其中最低的;左下這種通過局部化鏈接形成的模塊化結構在自然系統中很常見,比如鳥群、蟻群,此時Φ值略高一些;對于一個成環狀的系統(右上),Φ值則明顯更大。在6個節點的網絡中,什么時候Φ值達到最大?從圖中右下角的系統可以看出:它的連接四通八達,并且具有很強的異質性。所謂異質性,并非指連接強度弱,而是指連接方式高度多樣化、分布式,每個部分都與其他部分形成不同程度的耦合關聯。
此外,還有一個關鍵特征:若要使Φ值較大,系統內部必須包含大量大小不一的環路。因此,環路的存在與系統產生意識的能力密切相關。
意識度與功能無關
![]()
另一個重要推論來自對這些小型網絡的研究:意識程度的高低,實際上與網絡所執行的具體計算功能完全無關。例如,在圖示中,左右三個網絡執行的是完全相同的輸入輸出功能,即統計一串輸入數字中有多少個“1”。為了實現這一簡單功能,我們可以人工構造出了這三種不同的布爾網絡。然而,它們的Φ值卻顯著不同:最右側網絡的Φ值最高。原因很簡單:仔細觀察會發現,該網絡中的連接多為雙向箭頭,形成了反饋回路。由此可得出兩個重要結論:
第一,完成相同的計算功能,可以采用不同的網絡結構,而這些結構對應的意識程度(Φ值)可能截然不同。
第二,若希望系統具有較高的意識程度,則必須在其內部構建大量反饋回路。
今天的AI模型有意識嗎?
通過對這些簡單布爾網絡的研究,我們得以將關于意識程度的這一認識,拓展到更復雜、更多樣的系統之中。那么接下來我們就可以看一看我們司空見慣的大模型。
大家都知道,大模型背后是什么?實際上就是一種前饋型結構。目前主流架構基本上仍是前饋的,盡管其中可能包含一些局部環路,但整體上信息流仍保持前饋特性。所謂前饋,是指信息從輸入端單向傳遞至輸出端,不會回傳或形成反饋回路。
對于這類大型前饋神經網絡,它的Φ值是多少?很不幸,是0。如果是嚴格意義上的前饋結構,其Φ值嚴格為0。為什么會這樣?因為這種網絡很容易被切割:只需沿神經網絡橫向切開,就能將其分成兩個近乎孤立、互不聯系的部分。根據整合信息論,這類系統的意識程度為零,即沒有意識。由此可見,幾乎所有當前的人工神經網絡都不具備意識。盡管它們能夠產生豐富多彩的功能,幫助我們執行各種操作、完成人類的各類任務,但其意識度依然為零。
我們再來看另一類系統:馮·諾依曼式計算機。雖然對真實計算機難以計算其Φ值,但這并不妨礙我們對一個高度簡化的模型化小型計算機進行分析。Tononi等人就曾對一個僅有五個寄存器的小型計算機進行了Φ值計算。對于這類系統,其Φ值雖不為0,但仍然非常低。
原因在于,馮·諾依曼體系架構本質上是高度模塊化的,系統被劃分為不同的功能單元:有的專用于存儲,有的專用于輸入輸出,有的專用于計算。一旦形成這種局部模塊化結構,各模塊之間的耦合強度就不足,導致整體Φ值不高。由此可見,盡管現代計算機擁有強大的計算能力,其意識程度卻非常低。
基于此,Tononiy得出了一個令我非常震撼的結論:我們通常認為,只要一個系統(比如大語言模型或人工智能)具備強大功能,似乎就自然會展現出強意識。但事實并非如此。當我們真正去分析人工系統以及自然界時,就會發現:意識與智能很可能是兩個毫不相關的、相互垂直的維度。這里有幾個典型例子可以說明這一點:
![]()
例如,左上角展示的是自然界中一種非常古老的生物,海綿。海綿作為系統極其簡單,屬于低等生物,看起來“很傻”。但令人意外的是,它卻被認為具有較高的意識程度,也就意味著它擁有豐富的主觀體驗:一旦受到刺激,它就會收縮;再次刺激,它又會收縮。這種可重復的、對環境刺激的內在響應,暗示其具備相對較高的意識程度和主觀體驗。
再看另一個極端,右下角所示的是計算機芯片。這類系統顯然智能程度很高,甚至催生了今天令人驚嘆(或恐懼)的人工智能。然而,它的意識程度卻可以被壓得極低,原因在于它缺乏反饋環路、異質化的鏈接,導致它缺乏主觀體驗。而主觀體驗的來源,正是系統內部那些高度整合、富含反饋回路的連接結構。計算機芯片恰恰不具備這一點,它是一個高度模塊化、高速前饋式的網絡。
由此可見,智能與意識很可能是相互獨立的兩種屬性。因此,當我們討論“機器會不會具有意識”這個問題時,事情其實并不簡單。并非只要具備強大的功能或超強的計算能力,就必然會產生較高的意識程度。
“機器之能”與“人類之心”
那么,機器究竟能否超越工程上的功能主義?會不會有一天,既然我們已經知道什么樣的系統可能具備意識,那些“瘋狂”的工程師們便嘗試將意識能力強行賦予機器,使其產生豐富的主觀體驗?
大家覺得這有可能嗎?是不是我今天講完,就有人回去就立刻動手造一臺“意識機器”?我相信,這件事是得不償失的,沒有人愿意去做。你們想想,在算力有限的前提下,要讓機器產生所謂的主觀體驗,它就必須犧牲一定的功能性。我們并不是在追求功能,而是要耗費大量算力去讓機器自己“體驗生活”,產生自我的體驗,形成所謂的自我反饋。但對我們人類而言,這毫無目的、毫無功能。我們人類為什么要造這樣一個機器?
所以,即使我們真的造出了這種耗費算力的機器,也會發現它消耗了大量能源和計算資源。而今天,在它尚未產生意識、僅完成我們指定功能的情況下,算力就已經捉襟見肘。那么,我們又為什么要創造一個只會產生主觀體驗、卻無法執行實際功能的機器呢?因此,我認為在不久的將來,我們并沒有動力去創造這種具備意識、能產生主觀體驗的機器。
反過來,對于我們人類自身而言,能不能超越這種功能主義?人類當然擁有豐富的主觀體驗,但由于人工智能的快速發展,以及社會內卷的加劇,我們反而越來越像機器一樣,不斷追逐功能、效率和產出。
最近,騰訊研究院的朋友向我介紹了:他們針對互聯網上3000多個樣本(均為高學歷群體)進行調研,發現其中40%的人對“人工智能取代人類”感到極度焦慮。我覺得這件事頗為諷刺。按理說,高學歷人群掌握著社會中最寶貴的資源,腦力也最為豐富,本應是幸福感最強的群體。但事實并非如此,他們實際上是一個高度焦慮的群體。
![]()
那為什么會如此呢?因為他們太過追求功能主義了。無論在哪個方面,只要追求KPI或固定目標,在某種意義上就陷入了功能主義的陷阱。然而,作為人類,最寶貴的財富是我們的主觀意識體驗,這是超越功能主義的存在。因此,我們不應繼續與人工智能競爭,而應去體驗生活。
在我完成最后一頁PPT時,腦海中突然浮現了兩個詞:“人類之心”與“機器之能”。我們不應再與機器競爭,因為遲早它們的智能及所有能力都會超越人類。但根據整合信息論,當前的機器不會擁有豐富的主觀體驗或意識。而人類最寶貴的正是我們的心、我們的主觀體驗和靈魂。這是我們人類的根本,我們應該讓每個人和每臺機器都能發揮各自的特長。
當我把這兩個詞輸入到Nano Banana系統中時,它生成了一張非常可愛的圖像。這象征著科技向善的美好愿景。謝謝大家!
![]()
「大模型時代下的Agent建模與仿真」讀書會
集智俱樂部聯合山東工商學院副教授高德華、天津大學教授薛霄、北京師范大學教授張江、國防科技大學博士研究生曾利共同發起。讀書會自2025年7月8日開始,每周二晚上7:30-9:30進行,現讀書會已結束,支持查看課程回放。掃碼加入Agent建模與仿真的前沿探索之旅,一起共學、共創、共建、共享「大模型時代下的Agent建模與仿真」社區,共同暢想大模型時代人工社會的未來圖景!
核心問題
Agent建模與仿真是什么,核心技術發生了怎樣的演變?
大模型時代,Agent建模與仿真會給復雜系統理論帶來哪些突破?
大模型如何賦能Agent實現自主思考與動態適應?
大模型驅動的Agent交互會涌現出什么新型的社會現象?
Agent建模與仿真如何改變金融、心理、管理、軍事等領域的研究范式?
你將收獲
梳理Agent建模與仿真的歷史發展脈絡與方法論;
掌握一套理解、分析、控制、預測復雜系統的計算實驗框架;
掌握基于多主體強化學習的復雜系統優化方法;
領略領域前沿學者的研究體系與科研路徑。
詳情請見:
1.
2.
3.
4.
5.
6.
7.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.