寫論文先讓AI搭好完整框架,解數學題直接要AI的分步答案,甚至思考一個社會議題,先讓AI給出正反兩方的完整論述……如今,“遇事先問AI”早已從新鮮事變成了多數人的日常習慣。
AI用流暢、看似無懈可擊的答案,幫我們跳過了絞盡腦汁的思考過程,帶來了前所未有的效率,也讓很多人隱隱不安:我們的獨立思考能力,正在被AI一點點消解嗎?
![]()
2025年12月,德國波恩大學的Christian R. Klein與Reinhard Klein團隊,在國際期刊《人工智能前沿》上發表的一項研究,為這份焦慮提供了系統的科學解釋。
團隊提出了“空心思維”的核心概念,揭示了生成式AI帶來的認知悖論:它本應是人類認知的“延伸器”,卻可能在無形中成為我們深度思考能力的“消融劑”。
![]()
而這場認知危機的根源,恰恰藏在AI最吸引人的特質里——無需費力的“無摩擦答案”。
和計算器、搜索引擎這些過往的認知工具不同,生成式AI帶來了一場本質性的認知革命。
計算器只是幫我們外包了機械計算,搜索引擎只是幫我們縮短了信息檢索的路徑,它們都沒有觸碰學習的核心環節——整合推理。
而今天的大語言模型,能直接完成信息梳理、邏輯構建、觀點提煉甚至創造性合成,把人類學習中最需要耗費心力的深度思考環節,直接用現成答案替代了。
從認知科學的視角來看,這恰恰擊中了人類學習的底層邏輯。
![]()
諾貝爾獎得主卡尼曼提出的雙過程理論早已證實,人的思維分為兩套系統:依賴直覺、快速省力的系統1,和負責邏輯分析、緩慢費力的系統2。
真正的深度學習,從來都離不開系統2的全力參與——只有經過主動的思考、試錯、沖突解決,我們才能把零散的信息內化成穩定的知識體系,在大腦中構建起可遷移、可復用的思維“腳手架”。
認知負荷理論進一步指出,學習的核心,是需要大腦付出“相關認知負荷”——也就是為了理解、內化知識而主動付出的腦力勞動。
而AI的即時答案,讓我們輕易進入了“認知旁路”狀態:我們跳過了所有需要費力的思考環節,直接拿到了最終結果,看似完成了任務,實則完全繞過了知識內化的必經之路。
研究團隊把這個過程中形成的心理閉環,命名為“主權陷阱”。
人類天生就有“認知吝嗇鬼”的本能,會下意識選擇最省力的思考路徑,而AI的高權威性、高流暢度的輸出,恰好給了我們一個完美的“省力出口”。
面對AI給出的完整答案,我們會在不知不覺中放棄自己的“認知主權”——也就是獨立判斷、審視、質疑、決策的核心能力,把本該由自己完成的思考,全權委托給了AI。
這種認知外包,帶來的傷害不只是“想不出來了”,更會在神經層面造成不可逆的影響。
![]()
神經科學研究發現,我們大腦的前扣帶皮層,負責檢測認知中的矛盾和沖突,是觸發我們停下來、重新思考的“警報器”;而外側前額葉皮層,則負責完成批判性分析、錯誤修正的深度思考。
當AI的答案過于流暢、看似毫無破綻時,前扣帶皮層的沖突警報信號會被大幅削弱,我們也就失去了激活前額葉皮層進行深度思考的動力。
更值得警惕的是神經可塑性的“用進廢退”原則:長期不被激活的神經回路,工作效率會持續下降。
如果我們長期依賴AI完成深度推理,負責批判性思維的前額葉網絡,就會因為長期缺乏刺激而出現功能退化。
這一點對青少年尤為危險——人類負責高級認知、執行控制的前額葉皮層,要到20歲左右才能發育成熟,青春期正是這個腦區發育的關鍵窗口期。
如果未成年人在認知發展的核心階段,就習慣了用AI替代自己的思考,其認知能力的底層發育,可能會受到不可逆的影響。
![]()
很多人會說:“既然AI什么都知道,我為什么還要費力去學?”。
但過往數十年的認知研究早已證實,這種想法背后,藏著一個致命的認知誤區。
2011年的“谷歌效應”研究發現,當人們知道信息可以隨時從外部獲取時,大腦會放棄記憶信息本身,只記住“去哪里找這個信息”,這就是所謂的“數字失憶癥”。
就像長期依賴GPS導航的人,大腦海馬體的空間記憶功能會持續弱化,再也無法在腦海中構建出完整的認知地圖。
而生成式AI帶來的,是比搜索引擎、GPS更深刻的認知空心化。
研究團隊指出,過度依賴AI形成的“空心思維”,不是簡單的“記不住東西”,而是失去了獨立構建邏輯、形成觀點、驗證真偽的核心能力。
這種狀態最殘酷的現實集中體現在研究中發現的“專業知識二元性”上:AI對人的影響,完全取決于使用者本身已有的知識儲備。
對于領域內的專家來說,AI是能力的“放大器”。
專家的大腦中,已經構建起了完整的領域知識體系,他們能精準判斷AI答案的對錯、漏洞與局限性,把AI當成“新皮層合作伙伴”——用AI完成重復性的基礎工作,自己則專注于更有創造性的深度思考,最終實現1+1>2的效果。
但對于知識儲備不足的新手來說,AI只是一個虛假的“均衡器”。
它能讓一個新手快速拿出看似專業的成果,卻無法幫他構建起支撐這個成果的知識體系。
此時的AI,更像是一個“外部海馬體”,在新手還沒來得及把信息內化成自己的知識時,就直接給出了最終的成品,就像一個學生直接抄了AI的論文,哪怕論文邏輯再嚴謹,他也無法解釋其中的推理鏈條,更無法把其中的方法遷移到下一個問題中。
更可怕的是,這種“看似會了”的能力錯覺,會進一步強化他對AI的依賴,形成“越依賴,越不會思考;越不會思考,越依賴”的惡性循環。
這種二元性,最終會帶來一個令人不安的結果:AI不僅不會抹平認知差距,反而會讓強者愈強、弱者愈弱。
專家用AI放大自己的創造力,而新手則在AI的溫柔包裹中慢慢陷入“空心思維”的陷阱,失去獨立思考的底層能力。
更值得警惕的是,這種認知外包,還會瓦解我們構建穩定信念體系的能力。
![]()
普林斯頓大學Rose E. Guingrich團隊的研究指出,人類的知識和信念,是在主動的思考、驗證、修正中,和大腦中已有的其他知識深度綁定形成的,我們清楚“自己為什么相信這件事”,也能在出現反證時重新審視。
但從AI那里獲得的觀點,往往缺少了這個深度綁定的過程,我們很難說清“這個結論是怎么來的”,更無法對其進行有效的驗證和修正。
長此以往,我們的信念體系會變得越來越模糊,最終甚至會放棄獨立形成觀點的能力,把“判斷對錯、選擇相信什么”的權力,也一并交給AI。
難道我們只能拒絕AI,才能避免陷入“空心思維”嗎?
研究團隊給出的答案是否定的,AI本身不是洪水猛獸,問題的核心在于我們如何重構和AI的互動模式,以及AI系統本身的設計邏輯。
對抗“空心思維”的核心,是培養論文中提出的“強化思維”——一套由扎實的領域基礎知識、成熟的元認知能力,和主動進行深度思考的習慣構成的認知體系。
這不是讓我們死記硬背零散的知識點,而是要構建起一個領域的核心思維框架,這是我們能獨立判斷AI輸出、駕馭AI工具,而不是被AI牽著走的根本前提。
對個人而言,守住自己的“認知主權”,關鍵在于改變和AI的互動方式:不要把AI當成直接要答案的“抄作業工具”,而是把它當成輔助思考的“腳手架”。
面對一個問題,先自己完成思考、搭建框架、形成初步的想法,再用AI去補充細節、驗證邏輯、指出漏洞,而不是反過來,讓AI替你完成從0到1的核心思考。
哪怕只是拿到AI的答案后,強迫自己用自己的話重新解釋一遍邏輯,也能有效激活大腦的深度加工過程,避免陷入認知旁路。
而對AI系統的設計者來說,研究團隊提出了一個核心的設計方向:把AI從“答案引擎”,改造成“認知訓練環境”。
未來的教育AI,不應該追求“無摩擦的即時答案”,反而應該主動制造“必要的困難”——比如不直接給出結果,而是通過引導式提問,推著用戶自己一步步找到答案;根據用戶的能力水平,逐步減少輔助,讓用戶的思考能力在這個過程中得到鍛煉,而不是被替代。
在AI無處不在的今天,我們終于意識到,人類最核心的競爭力,從來不是記住多少信息、算得多快、寫得多流暢。
而是獨立思考、批判性判斷、主動構建知識體系的能力。
AI能幫我們省去思考的辛苦,卻無法替我們獲得思考帶來的成長。
所謂“認知主權”,從來不是拒絕使用AI,而是我們永遠要做那個思考的主體、決策的最終掌控者。畢竟,能駕馭工具的人,永遠是那些先懂得獨立思考的人。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.