我們正站在一個由人工智能驅動的全新時代的門檻上。當我們問“ AI能幫助我們學習嗎?”時,大多數人的第一反應可能都是肯定的。畢竟,它如此強大,能夠為我們量身定制內容,用我們最容易理解的方式解釋復雜如莎士比亞的著作,讓枯燥的數學變得有趣。這聽起來像是一場完美的教育革命。
然而,如果我們深入思考,可能會發現一個令人不安的真相:AI帶給教育的最大“革命”,或許并不是優化了我們的學習體驗,而是殘酷地揭示了我們現行教育體系中早已存在的、致命的謬誤。
頻繁使用人工智能工具可能會讓人越來越笨?這一懷疑也許并非沒有根據。近日,麻省理工學院和韋爾斯利學院的研究者們合作開展了一項新研究,題為“ChatGPT上的你的大腦:使用AI助手進行論文寫作時認知債務的積累”。該研究發現,使用AI的用戶在神經、語言和行為層面上的表現始終不佳。
這是一項為期數月的對照研究。54名被招募的用戶被分成三組,并被要求在不同條件下撰寫論文,一組使用大型語言模型(LLM,Large language model),一組使用谷歌(Google)搜索,還有一組只使用他們的大腦。每位用戶使用指定工具進行寫作,并通過腦電圖記錄他們的腦電活動。在后續環節中,這些用戶還被要求交換工具,交叉測試。最后,他們的論文將由人類和人工智能同時進行評判。
該研究的部分結論引發了諸多討論。其中一項發現是,在不使用人工智能等工具的情況下,大腦的創作效果更好,“創造性構思過程中的內部注意力和語義處理”在既不使用谷歌也不使用ChatGPT等大型語言模型工具的用戶中最高。最好的作品來自只使用大腦的那組,他們的文本在表達和詞匯方面最為獨特。
該研究還考察了用戶們具體如何看待他們的作品。其中,近90%的大型語言模型用戶對自己的作品沒有歸屬感,而使用谷歌搜索和純人腦寫作的用戶中只有10%的人反映了這一問題。盡管對自己作品的歸屬感難以量化,但問卷表明,使用大型語言模型的用戶在寫作過程中投入最少,他們獲得的對作品的所有權也相應最少。當被要求反思所用工具、所寫內容以及原因時,研究發現“只使用大腦的小組中的大多數參與者更關注并更關心他們所寫的是‘什么’以及‘為什么’……而其他小組則只關注‘如何寫’這個部分”。
這一結果并不出乎意料。研究成員對使用大型語言模型這組用戶的描述相對悲觀:他們中的大多數人專注于重復使用工具的輸出,因此專注于復制和粘貼內容,而不是融入自己的原創想法并根據自己的觀點和經驗進行重新編輯。這至少說明,在一定程度上,勞動確實賦予了創作以尊嚴。
![]()
不同對照組對各自作品所有權的判斷。
隨著ChatGPT等大型語言模型的出現,人們日益將自己的思維和記憶過程轉移到這些工具上,但科學家們明確表示,這并非人工智能的先例,而是始于搜索引擎。該研究繼續探討了“谷歌效應”,并指出大型語言模型的廣泛使用只會加劇這個趨勢。“因為我們知道信息只需快速搜索即可獲得,所以我們沒有動力去記住任何具體的東西,而是牢牢記住如何以及在哪里找到它。”
該研究最引發公眾擔憂的一個結論是,使用ChatGPT等工具的負面影響可能不會完全消失。當頻繁使用這類工具的用戶被要求切換到純大腦寫作時,他們仍然背負著“認知債務”:該組用戶雖然受益于工具效率,但他們的記憶痕跡較弱、自我監控能力下降,寫作內容呈現碎片化。這一結論指向了一個重要的教育議題,即人工智能工具雖然有助于提升學習表現,但可能會無意中阻礙深度認知處理、記憶力以及對書面材料的真正參與。如果用戶過度依賴人工智能工具,他們可能會獲得表面上的“流利”,但無法內化知識或產生對知識的歸屬感。
部分支持人工智能的人仍然看重“效率”的提升。但有趣的是,研究者發現,由于使用ChatGPT等工具寫作時理論上花費的時間更少,用戶反而更容易花更長時間投入其中,結果延長了原本完成這一任務所需的時間。這也從另一個維度提醒我們重思什么是“效率”,當用戶不再關心流程或最終產品,甚至記不清自己做了什么時,擺在面前的似乎是一個更殘酷的權衡。
1
被A+綁架的教育,AI如何成為“共犯”?
讓我們誠實地面對一個問題:我們的教育系統,在多大程度上是在鼓勵“學習”,又在多大程度上只是在獎勵“成功”?
長久以來,我們告訴學生,過程中的掙扎、探索和失敗并不重要,重要的是最終成績單上的那個耀眼的“A+”。我們要求學生為了寫一篇論文反復修改草稿,付出巨大的努力,但他們最終得到的回饋,往往只是一個冰冷的“B”,沒有任何額外的注解,沒有能激勵他們深入探究的指導。在這樣一個以結果為導向的體系中,當一個可以輕而易舉地幫助他們獲得“A+”的工具出現時,我們又怎能理直氣壯地責備他們選擇了捷徑呢?
這正是AI所扮演的微妙而危險的角色。它像一面鏡子,照出了系統的失敗。學生們為什么要學習?如果最終目的只是為了那個分數,那么任何能最高效達成這個目的的手段,都會變得極具誘惑力。
![]()
更令人擔憂的是,那些創造AI的科技巨頭們,其行動速度遠遠超過了我們的教育機構。像OpenAI,Google,Anthropic這樣的公司,它們會選擇在什么時候向公眾,特別是學生,免費開放最強大的AI模型呢?答案恰恰是期末考試期間。
這是一個精心計算過的商業策略,卻也是對教育倫理的一次公然挑戰。在學生們最焦慮、最脆弱、最渴望找到“救命稻草”的時刻,我們將這些功能強大卻缺乏監管的工具,直接推到了他們面前。這無異于將一個饑餓的人鎖在一個堆滿垃圾食品的房間里,然后期望他能自覺地選擇健康飲食。我們正在一個最需要深度思考和知識內化的環節,為他們提供了一個“一鍵完成”的選項。
這引出了一個核心問題:如果使用AI的目的,僅僅是為了讓我們更有效率地度過那了無生趣、考完試第二天就會忘得一干二凈的12到15年學生生涯,那么我們究竟在做什么?我們只是在用一種更高科技的方式,更高效地浪費我們的生命。
![]()
2
個性化學習的幻象,AI真的是理想的“一對一”家教嗎?
科技公司向我們描繪了一幅極其誘人的藍圖:AI 將通過“個性化學習”徹底改變教育。它們宣稱,AI 可以成為每個學生的專屬家教,實現“一對一”的理想教學模式。
這個愿景的吸引力是巨大的。想象一下,一個永遠耐心、知識淵博的導師,全天候為你服務,根據你的進度和理解能力定制教學內容。這聽起來確實是解決當下教育困境——一個老師面對幾十個學生的“軍隊式”教學——的完美方案。技術專家的邏輯似乎很直接:既然理想的模式是“一師一生”,那么我們為什么不能用 AI 取代那個老師呢?進一步推演,最終的形態將是“AI 軍團”對“學生軍團”,每個人都擁有自己的完美導師。
然而,問題恰恰出在“完美”這個詞上。“學習”的本質,從來都不應該是追求完美。
我們不希望我們的工程師在一個完美無瑕的模擬環境中學習如何建造橋梁,因為真實的世界充滿了混亂、意外和不完美。學習的過程,本身就包含了應對混亂、解決未知問題的能力。如果學習環境是完美的,那么學生就失去了發展這種韌性和適應性的機會。
在所有關于AI將如何革新教育的喧囂中,我們很少聽到那些科技公司問一個最根本的問題:“我們希望學生通過 AI 學習到什么?”如果答案僅僅是“更容易地拿到A+”,那么我們可能走在了一條完全錯誤的道路上。
我們必須區分兩個核心概念:教育 (education) 和 學習(learning)。
教育是一個社會建構的體系,是我們讓孩子們經歷的一套制度化流程。它有其規則、目標和評價標準。
學習則是一種深植于人性的技能,一種內在的、主動的探索過程。當我們真正投入學習時,奇妙的事情會發生:我們被激勵去成為更好的自己,我們學會與他人協作,我們渴望為社會做出貢獻。
AI或許能夠完美地融入“教育”這個體系,幫助學生在游戲規則內取得更好的成績。但它是否能夠真正促進“學習”這種人類技能的發展?答案遠非那么樂觀。
3
從Google搜索到ChatGPT:危險的“認知外包”
讓我給你講一個真實的故事。作為一名大學講師,我在一門課上指導學生創建自己的小型商業專案。其中一個環節是為他們的產品或服務定價。我注意到,一位學生將她的商業模式定價為每月50美元。
我好奇地問她:“你為什么會定這個價格?”
她的回答簡單而直接:“因為ChatGPT就是這么說的。”
這個答案讓我背后一涼。有些人可能會說,這和以前學生直接引用Google搜索到的第一個結果有什么區別嗎?孩子們以前會說“我在Google上看到的就是這樣”。
但這兩者之間存在著根本性的差異。
![]()
當我們正確地使用Google時,它會為我們呈現一個信息的廣場,里面有來自不同網站、不同角度的多個信源。我們需要自己去瀏覽、比較、評判這些信息的可靠性,然后綜合出自己的結論。這個過程本身就是一次批判性思維的鍛煉。當然,很多人會懶惰地只點擊第一個結果,這就是所謂的“首位結果的魔咒”。比如,當我搜索“如何為我的業務定價”時,第一個結果來自BDC(加拿大商業發展銀行)一個非常權威的來源。但它討論的是如何為“公司本身”估值,而不是為公司的“服務”定價。它誤解了我的查詢意圖。
現在,我們來看ChatGPT。當你輸入同樣的問題時,它在理解查詢意圖上做得更好。它會告訴你,為服務定價有多種方法。但接下來,它會給你大量沒有任何來源、看似頭頭是道卻經不起推敲的“建議”。這就是問題的關鍵:它提供了一個看似完整、實則空洞的答案。
![]()
雖然ChatGPT有一些高級功能,比如你可以點擊文本中的引號來追溯某些信息的來源,但現實是殘酷的:如果人們在Google上連第二個搜索結果都懶得點開,他們又怎么會去使用ChatGPT里那些隱藏的“高級用戶”功能呢?
更可能發生的情況是,用戶會滾動到頁面底部,然后輸入一個更具體的指令,比如:“好了我明白了。我的業務類似于TurboTax,幫助會計師計算稅款。直接告訴我應該定價多少錢。”
在這個過程中,幾乎沒有人會去閱讀介面底部那行不起眼的小字:“ChatGPT可能會犯錯”。就像我們從來不讀軟件的“用戶服務條款”一樣。
接著,ChatGPT會生成一段完美的、符合你語言風格的、極具說服力的文本。在所有信息的簇擁下,人們的目光只會聚焦在那個最核心、最直接的答案上——那個由 AI 隨機生成的、關于你的業務應該收費多少的具體數字。而生成這個數字的原始提示,可能僅僅是對業務的一句簡單描述,沒有任何關于用戶背景、市場環境或其他關鍵上下文的信息。
這位學生所做的,正是一個心理學術語所描述的現象:認知外包。她有效地將自己的認知能力——分析、判斷、決策——完全交給了一臺機器。
這種行為并不僅限于學生。當我們不假思索地接受Google的第一個搜索結果時,我們也在做同樣的事情。但AI,特別是大型語言模型,將這種現象推向了一個新的、更危險的層次。
在紐約大學,一位教授為了應對學生濫用ChatGPT的情況,特意修改了他的評分標準,讓抄襲變得更加困難。結果,一名學生竟然回復說,教授的行為“干擾了他的學習風格”。
這句話極具諷刺意味,也揭示了一個深刻的危機:ChatGPT不是一種學習風格。它是一種工具,但當使用者將其視為自己思考能力的延伸甚至替代品時,學習的本質就已經被侵蝕了。
使用人工智能工具對寫作會有哪些影響?近日,一項對照研究表明,在不使用人工智能等工具的情況下,大腦的創作效果更好。該研究還進一步指出,如果用戶過度依賴人工智能工具,他們可能會獲得表面上的“流利”,但無法內化知識或產生對知識的歸屬感。
當我們最終對AI產生了學習上的依賴,它真正幫助的,究竟是“誰”?
綜合整理自網絡 |如涉及版權等問題,請聯系刪除。
兒童的未來在教育
未來是一個需要創造力的時代
有沒有一種教育能讓孩子
當下環境下培養出應有的創造力?
有沒有一種教育能讓孩子
在老師陪伴下建立屬于自己文化的歸屬?
有沒有一種教育能讓老師
與孩子一起適應未來社會發展的需要?
尋找有緣家庭,一起探尋適合兒童的教育
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.