![]()
最近刷到合肥工業大學的一項新研究,看完我直接坐直了他們居然讓AI學會了"自己揪自己的錯"。
你可能會說,AI糾錯不是早就有了?但這次不一樣,以前是咱們告訴AI哪錯了,現在是AI自己在腦子里過一遍,就能知道"這步推理我心里沒底"。
![]()
這就好比學生做題時突然停筆,"等等,這步好像算岔了",這種自我覺察能力,對AI來說可是個大突破。
咱們平時用ChatGPT解數學題、寫代碼,是不是偶爾會碰到這種情況,前面步驟都對,最后一步突然跑偏。
![]()
或者明明是簡單的邏輯題,AI卻給出個離譜答案?這其實是大語言模型的老毛病了推理穩定性太差。
就拿大家熟悉的"思維鏈"技術來說,本來是讓AI像人一樣一步步思考,結果有時候越想越歪,算個三位數加法都能把進位搞錯。
![]()
有數據說,在數學推理題里,AI的錯誤率能飆到一半以上,而且最氣人的是,它還特自信,錯了也不知道回頭。
為啥會這樣?以前咱們總以為是AI"腦子不好使",合工大的研究團隊卻發現了盲點,這些模型有時候不是不知道答案,而是"嘴上說錯了,心里門兒清"。
![]()
他們通過分析模型的內部數據,發現中間層有幾個"注意力頭"特別機靈,就像老師改作業時用的紅筆,能悄悄給推理步驟打分。
可惜這些打分結果藏得太深,沒被用到最終決策里。
如此看來,AI缺的不是解題能力,而是"自我檢查"的意識。
![]()
那怎么讓AI把"內心想法"用起來?合工大團隊的思路挺巧妙,簡單說就是給AI裝了個"裁判系統"。
第一步是找到那些機靈的"注意力頭",就像在一群學生里挑出最細心的幾個當小組長。
![]()
測試了GPT-3.5、LLaMA這些主流模型,發現中間第12到16層的幾個注意力頭,對"2+2=4"和"2+2=5"的反應完全不一樣,區分對錯的準確率能到八成以上。
有意思的是,不管模型大小,這幾個"裁判"都存在,看來AI的"大腦結構"里天生就帶著糾錯基因。
找到裁判還不夠,得讓它們說話。
![]()
團隊把這些注意力頭的信號拼成一個特征向量,塞進一個小神經網絡里訓練,就有了"置信度預測器"。
本來想讓這個預測器復雜點,后來發現沒必要,三層簡單網絡就夠用,計算量只多了2%,手機都能跑。
這個預測器最牛的地方是"不瞎吹",說自己有八成把握,實際正確率就差不離,誤差能控制在3%以內。
![]()
對比以前AI"啥都敢說"的德性,現在終于知道"這題我可能不會"了。
有了裁判和預測器,最后一步就是讓它們指揮推理。
團隊設計了個雙因素評分公式,既看AI生成答案的概率,也看內部置信度,權重大概四六開。
![]()
碰到置信度低于50%的步驟,直接咔嚓剪掉,就像導航繞開死胡同。
測試下來,推理效率快了四成,數學題的正確率平均提了5個點,多模態推理任務甚至創了新紀錄。
更實在的是,金融機構已經拿這套技術去測試風險評估模型,據說錯誤率降了六成多,合規測試一次就過了。
![]()
這項研究最讓我感慨的不是技術多復雜,而是它戳破了一個誤區,咱們總想著讓AI更聰明,卻忘了先教它"承認錯誤"。
現在的AI就像剛進實驗室的研究生,知識儲備夠了,但缺了點科研人該有的嚴謹。
合工大這套"自我糾錯"機制,相當于給AI上了堂科研誠信課知道就是知道,不知道別硬撐。
![]()
而且AI學會糾錯后,會不會變得"畏首畏尾",簡單題也不敢下手?這些都是下一步要解決的問題。
但不管怎么說,讓AI從"閉著眼狂奔"到"睜著眼走路",這步邁得挺關鍵。
![]()
說不定再過兩年,咱們用AI寫代碼、做分析時,它會主動標紅,"這里可能有邏輯漏洞,建議檢查",到時候程序員們怕是要少掉不少頭發了。
說到底,AI的進步從來不只是算法的勝利,更是對"智能本質"的重新理解。
![]()
以前我們總把推理當成"一路向前"的過程,合工大的研究卻告訴我們,會回頭看、會自我懷疑,可能比一直往前沖更重要。
這道理不光適用于AI,咱們做人做事,不也一樣嗎?
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.