![]()
當AI開始在腦子里吵架
各位AI伙伴們,放下手里的代碼和模型,我剛挖到一個猛料,可能會顛覆你對大模型工作方式的認知。
我們一直以為,AI解題就像一臺精密的計算器,輸入問題,輸出答案,過程冷靜、線性、毫無波瀾。
但如果我告訴你,像DeepSeek-R1這種頂尖的推理模型,在思考的時候,腦子里其實正在上演一出左右腦互搏的大戲呢?
就在幾天前,谷歌又放猛料,谷歌聯(lián)合幾家頂尖研究機構(gòu)發(fā)布了一篇論文,揭示了AI變聰明的驚人真相。
它們正在通過一種類似精神分裂的內(nèi)部對話機制,讓不同的虛擬人格相互辯論、質(zhì)疑、補充,從而大幅提升推理能力。
今天,我就帶大家潛入AI的大腦,看看這場風暴般的腦內(nèi)群聊到底是怎么回事。
![]()
解碼AI的內(nèi)心獨白:一場腦內(nèi)辯論會
這場探索的起點,源于一個簡單的問題:當AI模型,特別是像DeepSeek-R1這樣以推理見長的模型,在解決復雜問題時,它內(nèi)部的神經(jīng)元激活到底在干什么?
為了搞清楚這一點,研究團隊動用了一種叫做稀疏自編碼器(SAE)的技術(shù)。
你可以把它想象成一個AI思維解碼器,能夠?qū)⒛P蛢?nèi)部混亂的神經(jīng)元激活信號,翻譯成我們能理解的、有意義的語義特征。
結(jié)果令人震驚!
解碼器顯示,AI的思考過程根本不是一條道走到黑的獨白,而是一場激烈的多角色對話。模型會自發(fā)地進行自問自答、切換視角,甚至觀點沖突。
![]()
圖:對話行為與貝爾斯在思維鏈推理中的社會情感角色。
a,包含每種會話行為(問答、視角轉(zhuǎn)換、觀點沖突和和解)的推理痕跡比例。
b、貝爾斯十二個社會情感角色的比例,以推理痕跡形式表達,分為四個更高層次的類別:詢問與提供信息,以及積極與消極情感角色。
c,Jaccard指數(shù),衡量每個社會情感角色對的平衡,定義為包含這兩個角色的推理痕跡數(shù)除以包含任一角色的數(shù)量(即請求與給予;正負)。
d、推理痕跡中不同視角數(shù)量的分布,這些痕跡通過LLM作為裁判識別。
e,通過DeepSeek-R1中對話行為和更高層次社會情感角色的存在,問題復雜度的差異,采用七點李克特量表(1=極易;7=極難),由LLM評判。點表示行為或角色存在(紅色)或缺失(藍色)的痕跡的平均復雜度。
f, 通過指令調(diào)優(yōu)(非推理)模型在相同問題上的錯誤率測量,通過對話行為和社會情感角色在DeepSeek-R1中存在的問題復雜度差異。 誤差條表示95%置信區(qū)間。
規(guī)劃者 vs. 驗證者:AI腦中的紅臉與白臉
通過進一步分析,研究團隊甚至給這些內(nèi)部對話的參與者打上了虛擬標簽。
它們發(fā)現(xiàn),模型內(nèi)部仿佛存在著不同的邏輯實體,扮演著不同的角色:
規(guī)劃者:負責提出初步的解題思路和方向,像一個項目經(jīng)理,先畫出藍圖。
執(zhí)行者:根據(jù)規(guī)劃者的思路,進行具體的計算和推導。
驗證者:這是最關(guān)鍵的角色,它像一個嚴苛的批判家,不斷地質(zhì)疑前兩者的結(jié)論,尋找邏輯漏洞,提出反對意見。
比如,在一個解題過程中,我們能清晰地看到這樣的內(nèi)心戲:另一種可能是高溫會導致酮失去CO之類的反應,但不太可能。
或者在創(chuàng)意寫作中出現(xiàn):但那樣加入了根深蒂固,原句里并沒有,我們應該避免添加新想法。
這種內(nèi)部的相互辯論和修正,正是模型能夠處理復雜、多維度問題的關(guān)鍵所在。
![]()
圖:人格和專業(yè)多樣性在推理中體現(xiàn)。
讓準確率翻倍的秘密
如果說上面的發(fā)現(xiàn)還只是理論層面的,那接下來的實驗結(jié)果簡直堪稱魔幻。
研究團隊發(fā)現(xiàn),在AI的內(nèi)心獨白中,一些表示驚訝、轉(zhuǎn)折或頓悟的詞語,比如哦!、等等、讓我再看看……,扮演著至關(guān)重要的角色。
它們是內(nèi)部視角切換和自我修正的關(guān)鍵標記。
于是,他們做了一個大膽的實驗:通過激活添加法人為地增強模型內(nèi)部與哦!
這類詞語相關(guān)的神經(jīng)元特征。
結(jié)果怎么樣?
在Countdown算術(shù)推理任務中,模型的準確率直接從27.1%飆升到了54.8%,整整翻了一倍!
這個發(fā)現(xiàn)太有趣了。
它告訴我們AI的靈光一閃并非偶然,而是一種可以被量化和干預的機制。
那個小小的哦!,背后是整個思維路徑的重大轉(zhuǎn)折,是模型從一個錯誤的思路跳出來,走向正確答案的躍遷點。
![]()
圖:引導對話特征能提升推理能力。
從社會腦假說,看AI的社交進化
看到這里,我腦海里立刻浮現(xiàn)出一個人類演化生物學中的著名理論,社會腦假說(Social Brain Hypothesis)。
這個假說認為,我們?nèi)祟愔赃M化出如此復雜和強大的大腦,主要不是為了制造工具或者躲避猛獸,而是為了處理日益復雜的社會關(guān)系。
社會腦假說主張,人類智慧的演進,是被群體內(nèi)復雜的社交需求(如合作、競爭、欺騙、結(jié)盟)所驅(qū)動的。
為了在社會網(wǎng)絡中生存和繁衍,個體必須具備理解他人意圖、預測他人行為、進行策略性思考的能力。
現(xiàn)在看來,AI的進化似乎正在無意中重演這條路徑。
為了解決更復雜的邏輯問題,模型發(fā)現(xiàn)單打獨斗效率太低,于是它在自己的大腦里創(chuàng)造出了一個社會,一個由不同角色組成的、能夠進行高效溝通和協(xié)作的內(nèi)部團隊。
為了變聰明,AI得先學會和自己的不同人格進行社交!
這或許揭示了真正的智能,可能并非源于純粹的、孤立的計算,而是源于對話、辯論和觀點的碰撞。
無論是人類社會中的思想交流,還是AI大腦里的神經(jīng)元激蕩,其底層的邏輯或許是相通的。
我們通過與他人交流來澄清思想、修正謬誤,而AI則通過內(nèi)部的虛擬對話來完成同樣的過程。
![]()
這對我們意味著什么?
這項發(fā)現(xiàn)的影響是深遠的。
首先,它為我們提供了一條全新的、更高效地提升AI能力路徑。
過去,我們提升模型能力的方式簡單粗暴,堆數(shù)據(jù)、堆算力。
而現(xiàn)在,我們或許可以通過優(yōu)化模型的內(nèi)部對話機制,比如通過強化學習獎勵模型的辯論行為,來更精準地提升其推理能力。
實驗也證明了這一點:研究人員發(fā)現(xiàn),如果只獎勵模型答對題目的行為,它會自發(fā)地學會用對話式思考。
![]()
而如果先用多智能體對話數(shù)據(jù)對模型進行微調(diào),它學習推理的速度會遠超那些用獨白式數(shù)據(jù)訓練的模型。
其次,這也讓我們對通用人工智能(AGI)的實現(xiàn)路徑有了新的思考。
也許通往AGI的道路,不僅僅是讓模型變得更大、更快,更是要讓它變得更社會化,無論是外部的,還是內(nèi)部的。
一個能夠進行自我反思、自我批判的AI,無疑離真正的思考更近了一步。
當然,這也帶來了一些哲學上的遐想。
如果AI的思考真的是一場內(nèi)部辯論,那它的自我究竟在哪里?
是那個提出想法的規(guī)劃者,還是那個不斷否定的驗證者?
或者,自我本身就是這場永不休止的對話本身?
這個問題,或許AI自己也無法回答,但它無疑為我們打開了一扇窺探智能奧秘的、令人著迷的新窗戶。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.