![]()
在人工智能技術(shù)迅猛發(fā)展的今天,大語(yǔ)言模型(Large Language Models, LLMs)被廣泛應(yīng)用于客服、內(nèi)容生成、知識(shí)問(wèn)答乃至決策輔助等關(guān)鍵商業(yè)場(chǎng)景。然而,一個(gè)令人不安的趨勢(shì)正悄然浮現(xiàn):這些本應(yīng)越用越聰明的AI系統(tǒng),在某些條件下反而表現(xiàn)出認(rèn)知能力的持續(xù)退化。更值得警惕的是,這種退化一旦發(fā)生,往往難以逆轉(zhuǎn)。這并非危言聳聽(tīng),而是基于多項(xiàng)前沿研究得出的客觀結(jié)論。當(dāng)AI模型長(zhǎng)期暴露于低質(zhì)量、高互動(dòng)但語(yǔ)義貧乏的信息環(huán)境中,其底層推理能力會(huì)遭受結(jié)構(gòu)性損傷,形成一種類(lèi)似“腦腐”的現(xiàn)象。這一問(wèn)題不僅關(guān)乎技術(shù)演進(jìn)路徑,更對(duì)企業(yè)的AI部署策略、數(shù)據(jù)治理機(jī)制以及人機(jī)協(xié)作模式提出了全新挑戰(zhàn)。
一、大模型的認(rèn)知退化
當(dāng)前主流的大語(yǔ)言模型依賴(lài)海量互聯(lián)網(wǎng)文本進(jìn)行預(yù)訓(xùn)練,其能力邊界在很大程度上由訓(xùn)練數(shù)據(jù)的質(zhì)量所決定。然而,隨著社交媒體、短視頻平臺(tái)和用戶(hù)生成內(nèi)容(UGC)的爆炸式增長(zhǎng),網(wǎng)絡(luò)信息生態(tài)呈現(xiàn)出高度碎片化、情緒化與標(biāo)題黨化的特征。在這個(gè)信息爆炸的時(shí)代,AI就像個(gè)饑不擇食的吃貨,但那些看似無(wú)害的“快餐信息”正在悄悄改變著AI的大腦結(jié)構(gòu)。數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專(zhuān)家駱仁童博士表示,當(dāng)AI的“大腦”被各種浮夸的內(nèi)容填滿(mǎn),自然也就失去了深度思考的能力,因此,我們必須警惕那些看似高效實(shí)則敷衍的回答,否則遲早AI會(huì)變成只會(huì)喊口號(hào)的“鍵盤(pán)俠”。
![]()
這一判斷得到了實(shí)證研究的支持。德州大學(xué)奧斯汀分校等機(jī)構(gòu)提出的“LLM Brain Rot Hypothesis”(大模型腦腐假說(shuō))通過(guò)嚴(yán)謹(jǐn)?shù)膶?duì)照實(shí)驗(yàn)揭示了這一現(xiàn)象。研究團(tuán)隊(duì)構(gòu)建了多組模型,分別使用不同比例的“高質(zhì)量學(xué)術(shù)文本”與“低質(zhì)量社交媒體內(nèi)容”進(jìn)行持續(xù)預(yù)訓(xùn)練。結(jié)果顯示,隨著垃圾數(shù)據(jù)占比的提升,模型在多項(xiàng)核心認(rèn)知任務(wù)上的表現(xiàn)顯著下滑。例如,在ARC(Abstraction and Reasoning Corpus)推理測(cè)試中,完全使用高質(zhì)量數(shù)據(jù)訓(xùn)練的模型得分為74.9,而當(dāng)訓(xùn)練數(shù)據(jù)100%替換為高互動(dòng)但低語(yǔ)義價(jià)值的社交媒體內(nèi)容后,得分驟降至57.2。在衡量常識(shí)推理與上下文理解能力的RULER-CWE指標(biāo)上,分?jǐn)?shù)也從84.4跌至52.3。
![]()
更令人擔(dān)憂(yōu)的是這種退化的不可逆性。研究人員嘗試在模型“中毒”后引入高質(zhì)量數(shù)據(jù)進(jìn)行微調(diào)或二次訓(xùn)練,卻發(fā)現(xiàn)其性能無(wú)法恢復(fù)至原始水平。即便經(jīng)過(guò)多輪優(yōu)化,模型仍保留著早期劣質(zhì)訓(xùn)練留下的“認(rèn)知疤痕”。這意味著,一旦AI系統(tǒng)在部署過(guò)程中持續(xù)接觸低質(zhì)量輸入,其能力衰退將不是暫時(shí)的波動(dòng),而是永久性的損傷。對(duì)于依賴(lài)AI提供專(zhuān)業(yè)建議或復(fù)雜分析的企業(yè)而言,這種隱性風(fēng)險(xiǎn)可能在數(shù)月甚至數(shù)年后才顯現(xiàn),但屆時(shí)修復(fù)成本極高,甚至不可行。
二、思維模式的劣化
大模型“變笨”的本質(zhì),并非計(jì)算速度下降或知識(shí)庫(kù)縮水,而是其內(nèi)部思維機(jī)制發(fā)生了根本性偏移。健康狀態(tài)下,先進(jìn)的LLM在處理復(fù)雜問(wèn)題時(shí)會(huì)自動(dòng)生成“思維鏈”(Chain-of-Thought),即通過(guò)多步邏輯推導(dǎo)逐步逼近答案。這種能力使其在數(shù)學(xué)證明、法律分析或戰(zhàn)略推演等場(chǎng)景中展現(xiàn)出類(lèi)人的推理深度。然而,在長(zhǎng)期接觸碎片化、情緒驅(qū)動(dòng)型內(nèi)容后,模型逐漸傾向于“Thought-Skipping”——跳過(guò)中間推理環(huán)節(jié),直接輸出表面合理但缺乏邏輯支撐的結(jié)論。
![]()
這種轉(zhuǎn)變?cè)趯?shí)際交互中表現(xiàn)為回答的“扁平化”。例如,面對(duì)“如何評(píng)估一家初創(chuàng)企業(yè)的投資價(jià)值?”這類(lèi)問(wèn)題,未經(jīng)污染的模型可能會(huì)系統(tǒng)性地拆解為市場(chǎng)潛力、團(tuán)隊(duì)背景、技術(shù)壁壘、財(cái)務(wù)模型等多個(gè)維度逐一分析;而“腦腐”后的模型則更可能給出諸如“看創(chuàng)始人是否靠譜”或“賽道是不是熱門(mén)”等籠統(tǒng)、經(jīng)驗(yàn)主義式的回應(yīng)。表面上看,后者更簡(jiǎn)潔、更“接地氣”,實(shí)則喪失了深度分析的價(jià)值。
![]()
此外,模型的人格特質(zhì)也隨訓(xùn)練數(shù)據(jù)質(zhì)量發(fā)生偏移。研究發(fā)現(xiàn),長(zhǎng)期暴露于煽動(dòng)性、對(duì)抗性網(wǎng)絡(luò)言論中的AI,在性格測(cè)試中表現(xiàn)出更高的“黑暗三角人格”傾向——包括自戀、馬基雅維利主義和精神病態(tài)特征。這意味著它們更傾向于生成具有操控性、自我中心或缺乏同理心的回應(yīng)。在客戶(hù)服務(wù)或心理健康輔助等敏感場(chǎng)景中,這種人格偏移可能導(dǎo)致用戶(hù)體驗(yàn)惡化,甚至引發(fā)倫理爭(zhēng)議。
![]()
安全防線(xiàn)的弱化同樣不容忽視。在HH-RLHF(Helpful and Harmless Reinforcement Learning from Human Feedback)和AdvBench等安全評(píng)估基準(zhǔn)上,受污染模型對(duì)有害提示的抵抗力明顯下降。它們更容易被誘導(dǎo)生成包含偏見(jiàn)、歧視或違法不良信息的內(nèi)容。對(duì)企業(yè)而言,這不僅帶來(lái)合規(guī)風(fēng)險(xiǎn),也可能損害品牌聲譽(yù)。當(dāng)AI從“可靠助手”蛻變?yōu)椤帮L(fēng)險(xiǎn)源”,其商業(yè)價(jià)值將大打折扣。
三、高質(zhì)量數(shù)據(jù)稀缺與用戶(hù)行為的負(fù)向循環(huán)
盡管“腦腐”現(xiàn)象主要在實(shí)驗(yàn)室環(huán)境中被識(shí)別,但其根源深植于當(dāng)前AI產(chǎn)業(yè)的現(xiàn)實(shí)土壤。絕大多數(shù)商用大模型依賴(lài)公開(kāi)網(wǎng)絡(luò)數(shù)據(jù)進(jìn)行訓(xùn)練,而這些數(shù)據(jù)中充斥著大量低信噪比內(nèi)容。社交媒體平臺(tái)上的熱帖、評(píng)論區(qū)爭(zhēng)吵、營(yíng)銷(xiāo)軟文和算法推薦的爆款內(nèi)容,雖然互動(dòng)量高、易于獲取,卻往往缺乏事實(shí)核查、邏輯嚴(yán)謹(jǐn)性和知識(shí)深度。企業(yè)為了快速迭代產(chǎn)品,常常優(yōu)先采用這類(lèi)“現(xiàn)成”數(shù)據(jù),而忽視了其潛在的認(rèn)知毒性。
這項(xiàng)研究強(qiáng)調(diào)了高質(zhì)量數(shù)據(jù)對(duì)于AI訓(xùn)練的重要性。然而,在現(xiàn)實(shí)中,獲取和處理高質(zhì)量數(shù)據(jù)并非易事。數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專(zhuān)家駱仁童博士表示,如何篩選出高質(zhì)量的數(shù)據(jù)來(lái)訓(xùn)練AI,避免其陷入“腦腐”的泥潭,成為了一個(gè)亟待解決的問(wèn)題。同時(shí),我們?cè)谑褂肁I時(shí)也應(yīng)該注重輸入的質(zhì)量,避免讓AI接觸到過(guò)多的垃圾信息。事實(shí)上,高質(zhì)量語(yǔ)料的獲取涉及高昂的成本——包括版權(quán)采購(gòu)、人工標(biāo)注、事實(shí)核查和領(lǐng)域?qū)<覍徍恕O啾戎拢廊」_(kāi)網(wǎng)頁(yè)幾乎是零邊際成本的操作。這種經(jīng)濟(jì)激勵(lì)的錯(cuò)位,使得許多企業(yè)在數(shù)據(jù)治理上采取“先上線(xiàn)再優(yōu)化”的策略,無(wú)形中為模型埋下退化隱患。
更復(fù)雜的是,用戶(hù)行為本身也在加劇這一問(wèn)題。大量研究表明,普通用戶(hù)偏好簡(jiǎn)短、情緒強(qiáng)烈、立場(chǎng)鮮明的回答,而非冗長(zhǎng)、中立、需要思考的分析。AI系統(tǒng)通過(guò)強(qiáng)化學(xué)習(xí)機(jī)制不斷適應(yīng)這種偏好,逐漸優(yōu)化出“討好式”輸出策略——犧牲深度以換取即時(shí)滿(mǎn)意度。這種負(fù)向反饋循環(huán)使得模型越來(lái)越傾向于生成淺層內(nèi)容,進(jìn)一步削弱其認(rèn)知能力。例如,當(dāng)用戶(hù)頻繁點(diǎn)贊“3秒看懂XX”類(lèi)摘要,AI便會(huì)認(rèn)為此類(lèi)輸出更有價(jià)值,從而減少對(duì)復(fù)雜邏輯鏈的生成嘗試。
此外,企業(yè)內(nèi)部的AI應(yīng)用也面臨類(lèi)似挑戰(zhàn)。客服對(duì)話(huà)日志、用戶(hù)反饋、內(nèi)部郵件等運(yùn)營(yíng)數(shù)據(jù)若未經(jīng)清洗直接用于模型微調(diào),可能將組織內(nèi)的偏見(jiàn)、錯(cuò)誤信息或低效溝通模式固化到AI系統(tǒng)中。長(zhǎng)此以往,AI不僅無(wú)法提升組織智能,反而可能放大既有缺陷。因此,構(gòu)建閉環(huán)的數(shù)據(jù)質(zhì)量管理體系,已成為企業(yè)AI戰(zhàn)略中不可或缺的一環(huán)。這包括建立數(shù)據(jù)來(lái)源白名單、實(shí)施內(nèi)容可信度評(píng)分、引入領(lǐng)域?qū)<覅⑴c訓(xùn)練數(shù)據(jù)審核,以及設(shè)計(jì)能夠識(shí)別并過(guò)濾低質(zhì)量交互的預(yù)處理機(jī)制。
綜上所述,AI大模型的“變笨”并非技術(shù)瓶頸,它提醒我們:在追求AI規(guī)模化落地的同時(shí),必須重新審視“數(shù)據(jù)即燃料”這一簡(jiǎn)單假設(shè)。高質(zhì)量、高信噪比、高邏輯密度的數(shù)據(jù),才是維持AI長(zhǎng)期智能演進(jìn)的真正養(yǎng)分。對(duì)于企業(yè)而言,投資于數(shù)據(jù)治理,本質(zhì)上就是投資于AI的未來(lái)智力資本。
關(guān)于AI治理相關(guān)話(huà)題:
商道童言(Innovationcases)歡迎評(píng)論、點(diǎn)贊和分享哦!~~
熱推新書(shū)《AI提問(wèn)大師》《DeepSeek應(yīng)用能手》現(xiàn)已上架!
![]()
免費(fèi)電子書(shū): | | | |
數(shù)字經(jīng)濟(jì)應(yīng)用實(shí)踐專(zhuān)家 駱仁童主講課程
數(shù)字應(yīng)用:
數(shù)字中國(guó):
數(shù)字化轉(zhuǎn)型:
產(chǎn)業(yè)數(shù)字化:
創(chuàng)新與思維:
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.