在剛剛過去的2026年首周,頂級期刊《Nature》刊登了一項(xiàng)足以重塑我們對“記憶”認(rèn)知的重磅研究: 《Distinct neuronal populations in the human brain combine content and context》 。
讀完后的第一感受是: 大模型(LLM)長期以來的“幻覺”難題,或許在生物學(xué)里找到了終極藥方。
大腦是如何“縫合”記憶的?
想象一下,你在街角的咖啡館偶遇了老同學(xué)。你的大腦不僅記住了“老同學(xué)”這張臉,還記住了“咖啡館”這個(gè)背景。
這項(xiàng)研究通過對人類海馬體(Hippocampus)和內(nèi)嗅皮層(Entorhinal Cortex)的神經(jīng)元進(jìn)行高精度記錄,發(fā)現(xiàn)了一個(gè)精妙的“三元組”結(jié)構(gòu):
內(nèi)容神經(jīng)元(Content Neurons): 它們只關(guān)心“是什么”。無論是在辦公室還是在海邊,看到“咖啡”它們就會放電。
背景神經(jīng)元(Context Neurons): 它們只關(guān)心“在哪/什么時(shí)候”。它們定義了當(dāng)前的環(huán)境坐標(biāo),是記憶的藍(lán)圖。
結(jié)合神經(jīng)元(Conjunctive Neurons): 關(guān)鍵點(diǎn)來了!研究發(fā)現(xiàn)存在第三群神經(jīng)元,它們負(fù)責(zé)將特定的“內(nèi)容”縫合進(jìn)特定的“背景”。
結(jié)論是:人類大腦并不是把信息像漿糊一樣攪在一起,而是采取了極其高明的“解耦——再重組”策略。
AI 為什么會“一本正經(jīng)地胡說八道”?
目前的 LLM 處理信息的方式更像是“稠密編碼”。雖然我們有 Attention(注意力機(jī)制),但在高維向量空間里,內(nèi)容(Content)和背景(Context)往往是糾纏在一起的。
大腦: 像是一個(gè)活頁本。內(nèi)容是一張張照片,背景是一個(gè)個(gè)框架。我可以隨時(shí)把“林黛玉”的照片從《紅樓夢》里取出來,放進(jìn)《三體》的背景里,但我清楚地知道這只是在做“跨界重組”。
大模型: 更像是一幅復(fù)雜的油畫。所有的信息都被涂抹在參數(shù)權(quán)重(Weights)里。當(dāng)它提到“林黛玉”時(shí),周圍的背景像素是模糊且概率性的。
這就是為什么 AI 會產(chǎn)生幻覺(Hallucination)。因?yàn)樗诘讓舆壿嬌希瑳]有建立起像人類那樣獨(dú)立且嚴(yán)密的“內(nèi)容 vs 背景”隔離墻,導(dǎo)致它在提取信息時(shí),經(jīng)常把甲的背景嫁接到乙的內(nèi)容上。
3. 對未來人工智能的三個(gè)啟示
從“全連接”到“解耦表征”:未來的模型設(shè)計(jì)可能會引入更明確的“解耦架構(gòu)”。如果 AI 能夠擁有專門處理事實(shí)(Fact)和專門處理語境(Situation)的模塊,它的推理精度將產(chǎn)生質(zhì)的飛躍。
像人類一樣進(jìn)行“少樣本學(xué)習(xí)”:為什么人類看一遍就能記住?因?yàn)槲覀儾恍枰匦聦W(xué)習(xí)“背景”,只需要把新的“內(nèi)容”插進(jìn)現(xiàn)有的“背景”框架里。如果 AI 模仿這種結(jié)合機(jī)制,訓(xùn)練成本和能耗(Energy Efficiency)可能會大幅下降。
解決長文本記憶的疲勞:現(xiàn)在的 AI 處理超長文本時(shí)容易“斷片”,是因?yàn)楸尘靶畔⑻嘌蜎]了內(nèi)容。借鑒大腦的這種三元神經(jīng)元分布,我們或許可以開發(fā)出一種“稀疏關(guān)聯(lián)”的記憶檢索算法。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.