![]()
1月21日,ScienceDaily報道稱,以色列耶路撒冷希伯來大學的研究團隊發(fā)現(xiàn),人類大腦理解口語的過程與先進人工智能語言模型驚人相似。這項成果基于《自然·通訊》雜志的原始論文,由該大學認知與腦科學系的Ariel Goldstein博士領銜,合作者包括谷歌研究院的Mariano Schain博士,以及普林斯頓大學的Uri Hasson教授等人。研究使用電皮層圖(ECoG)技術,記錄參與者聆聽30分鐘真實播客時的腦部活動,捕捉到大腦實時處理語言的時空動態(tài)。
分析顯示,大腦并非瞬間把握全部含義,而是像大型語言模型(例如GPT-2和Llama 2)那樣,通過層層遞進的方式逐步構建理解。早期神經(jīng)信號對應AI模型的淺層,主要處理單詞的基本特征(如句法和簡單語義);后期信號則與模型深層對齊,這些深層整合更廣泛的上下文、語調和整體意義。這種時間序列匹配在高級語言區(qū)(如布羅卡區(qū))表現(xiàn)尤為明顯,后期響應峰值與AI深層高度一致。
研究者還對比了傳統(tǒng)語言學元素(如音素和詞素),發(fā)現(xiàn)它們對實時腦活動的解釋力遠不如AI模型提供的上下文表征。這表明,大腦更依賴流動的統(tǒng)計上下文,而非嚴格的符號規(guī)則或固定層級。
Goldstein博士表示:“最讓我們驚訝的是,大腦意義展開的時間過程與大型語言模型內部的變換序列如此貼合。盡管兩者構建方式截然不同,卻在逐步累積理解的機制上趨同。”
這項發(fā)現(xiàn)不僅重塑了我們對語言認知的理解,還為腦機接口(BCI)領域帶來重要啟示:AI可作為強大工具反向解碼人類思維過程,幫助優(yōu)化神經(jīng)信號解讀算法、提升植入設備對語言意圖的精準捕捉,并加速更仿生化的腦機系統(tǒng)開發(fā)。團隊公開的全部神經(jīng)記錄與語言特征數(shù)據(jù)集,也為Neuralink等BCI項目提供了寶貴基準數(shù)據(jù)。未來,這種腦-AI“意外趨同”或將推動腦機接口向更高帶寬、更自然交互的方向演進,開啟全新認知與融合時代。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.