斯坦福大學的研究者做過一個測試,讓一批受過良好教育的成年人區分AI寫作和人類寫作。結果是:他們的準確率,僅略高于隨機猜測。也就是說,那些說"AI內容一眼就能看出來"的人,大約有將近一半的時間在誤判。 但奇怪的事情在于:這個數據被公布之后,那些人并沒有因此改變判斷方式。他們只是繼續說"這有AI味兒",繼續點贊。 這件事讓我開始思考一個問題:對AI的抵制,到底是在抵制什么?一個你可能熟悉的場景
朋友圈里,有人轉發一篇文章,配文是:
"這種AI味兒太重了,現在的內容真是越來越沒有靈魂。"
底下點贊如潮。
沒有人質疑這個判斷是否準確。沒有人問一句"你怎么知道這是AI寫的"。大家只是心照不宣地點了贊,然后繼續刷下一條。
這幅圖景里,有一種很微妙的心理結構:貶低AI生成的內容,不只是在表達審美偏好,更是在完成一次身份聲明。
它的潛臺詞是:我看得出來這是AI的,因為我比它更有品位,比使用AI的人更有深度。
但問題在于——這個判斷本身,越來越多時候是錯的。
斯坦福大學2024年的一項研究發現,受試者區分AI與人類寫作的準確率,僅略高于隨機猜測。另一項針對出版編輯的測試同樣表明,專業讀者對AI內容的識別準確率不超過55%。
也就是說,那些信誓旦旦說"一眼就看出是AI"的人,有將近一半的時間在誤判。
但這不是本文真正想說的事。
本文真正想說的是:這道越來越深的鴻溝,與AI本身的好壞無關,與"會不會用"也無關——它的根源,藏在人類保護自我認同的本能里。
鴻溝的真實形態
當我們談論"AI鴻溝"時,很多人腦海里浮現的畫面是:一邊是瘋狂擁抱AI的極客,一邊是義正言辭拒絕AI的人文主義者;一邊是效率機器,一邊是靈魂衛士。
這是錯的。
現實的分布更加細碎,也更加無情:
第一類人,真的在用。不是偶爾試一試,而是把AI嵌入了每一個工作節點。他們在用AI整理會議記錄、生成代碼框架、梳理研究文獻、測試文案方向。這些人的工作產出,已經和兩年前不在一個量級上。
第二類人,知道AI有用,但還沒真正用起來。他們試過幾次,覺得輸出質量不穩定,或者摸不著門道,然后擱置了。這部分人數量最多,焦慮感也最強。
第三類人,主動在抵制。原因各異,但有一個核心的心理結構高度相似——他們不是不知道AI有用,而是承認AI有用,對他們來說代價太高了。
這篇文章想重點談的,是第三類人。
因為第二類人的問題,本質上是方法論問題,有辦法解決。第三類人的問題,是心理防御機制的問題,比你想象的要頑固得多。
身份,才是真正的戰場
讓我們做一個思想實驗。
假設你是一名文字工作者,寫作是你賴以謀生、也是你引以為傲的核心技能。你花了十年磨練語感,打磨句子,研究敘事結構。你的身份感、自我價值感,很大程度上建立在"我是一個好的寫作者"這件事上。
現在,有人告訴你:這個工具,在很多寫作任務上,可以幫你把效率提升五倍。
你的第一反應是什么?
理性層面,你可能會想:好,那我來看看它能做什么。
但情感層面,有另一個聲音在說:如果這是真的,那我十年磨出來的技能,還值多少錢?
這就是問題所在。
心理學里有一個概念叫做"身份威脅(identity threat)"——當外部變化與個體核心身份認同產生沖突時,人們會啟動一套自我保護機制,而不是理性評估新信息。
這套機制的運作方式,有點像人體的免疫系統。
免疫系統本來是用來抵御病原體的。但有時候,它會把無害的物質——比如花粉、某種食物——識別為威脅,然后發動一場不必要的戰爭。你的身體沒有問題,只是防御系統過于敏感,把誤判當成了真相。
對AI的條件反射式抵制,結構上完全一樣。
AI并沒有真的要奪走你的價值。但當它觸碰了你用來定義自己的那塊領地,你的心理免疫系統就會把它識別為入侵者,然后自動生成一套防御話語:
"AI生成的東西沒有靈魂。"
"這些都是批量產出的平庸內容。"
"真正有思想的人不需要AI代勞。"
注意這些話語的結構——它們沒有在說AI具體差在哪里,而是在通過貶低AI,來重新確認自己的價值。
這是身份維護,不是理性批評。
"AI垃圾"標簽的濫用經濟學
當然,AI生成的低質量內容確實存在。
那種把一個問題扔給ChatGPT、不加任何修改直接發布的做法,確實在制造大量沒有價值的噪音。互聯網上充斥著"AI感"極重的文章——開頭必有"在當今時代……",結尾必有"綜上所述……",中間是一堆正確的廢話。
這部分批評是有道理的。
但這里有一個邏輯陷阱,正在被越來越多人悄悄偷換:
從"存在劣質的AI內容",到"所有AI參與的內容都是劣質的"——這一跳,跨越了一道巨大的邏輯鴻溝。
人類同樣在每天產出海量的劣質內容。每天被發布的文章里,絕大多數也是空洞、重復、沒有洞見的。我們不會因此說"人類寫作=垃圾"。但在AI這里,這個邏輯突然成立了。
更值得警惕的是,"AI垃圾"的標簽,現在已經成為一種回避深入討論的快捷鍵。
一個創作者花了大量時間調試提示詞,反復與AI對話,篩選、修改、注入自己的判斷和經驗,最終產出了一篇有洞見的文章。但只要有人知道"AI參與了",這件事就足以讓整篇文章的價值被自動歸零。
這不是批評,這是懶惰。
它省去了真正評估內容質量所需要的認知成本,用一個簡單的標簽完成了一次不費力的鄙視鏈爬升。
當"AI生成的"成為一種羞辱,而不是一種描述,我們就已經離開了理性討論的軌道。
復利,是這場游戲真正殘酷的地方
現在我們來談談那些真正在用AI的人,在經歷什么。
有一種誤解,認為AI工具的價值主要體現在"省時間"。這沒錯,但只說對了一半,而且是不那么重要的那一半。
更深層的變化,發生在認知結構上。
一個每天使用AI工具的人,在做什么?
他不只是在把任務外包給AI。他在不斷地做一件事:把自己的思維過程外化,然后觀察、評估、修正、再迭代。
比如,一個用AI輔助寫作的人,會把自己模糊的想法輸入AI,看AI怎么理解,然后意識到"不對,我真正想說的不是這個",再次修正,再次輸入。這個過程,實際上是一種強迫自己精確化思維的訓練。
比如,一個用AI做市場分析的人,會讓AI生成初稿,然后帶著批判性眼光逐條審查:哪些數據有誤?哪些結論跳躍?哪些角度遺漏了?這個過程,是在訓練一種叫做"辨偽能力"的核心思維技能。
比如,一個用AI學習新領域的人,會在五分鐘內得到一個概念的基礎框架,然后帶著這個框架去讀原始資料,用已有結構快速錨定新知識。這是學習速度的量級提升,不只是效率的提升。
這三個場景里,真正在提升的,不是AI的能力,是使用者的判斷力、辨別力和學習速度。
而這種提升,有一個特別重要的屬性:它是復利的。
第一個月用AI,你也許只是在機械地完成一些簡單任務。第三個月,你開始有感覺,知道什么問題適合問AI,什么問題AI會胡說。第一年,你已經形成了一套完整的"AI協作直覺"——你知道如何提問,如何驗證,如何在AI的輸出里找到真正有價值的東西,如何把它和你自己的判斷結合。
這套直覺,不是別人能借給你的,也不是你能速成的。它只能通過大量的實踐積累。
而在你積累這套直覺的同時,拒絕AI的人,什么都沒有在積累。
這就是為什么"日后追趕"這件事,比大多數人預期的要難得多。不是因為AI太復雜,而是因為認知優勢本身會復利,差距會隨時間指數級放大,而不是線性放大。
教育的誤判
這個問題在教育領域呈現得尤為典型。
目前,大多數學校對AI的應對策略,是"堵"。
禁止在作業中使用AI。用AI檢測工具篩查提交文本。把"用AI寫作業"定性為作弊行為。
出發點沒有錯:確實有學生在用AI替代自己思考。
但問題在于,這個策略解決的,是一個短期的教育管理問題,而不是一個長期的教育目標問題。
學校真正應該教會學生的,是什么?
不是如何在沒有AI的情況下完成任務,而是如何在有AI的情況下,保持批判性思維、識別錯誤信息、做出有質量的判斷。
這兩件事,哪個更接近這些學生未來要面對的真實世界?
一個禁止使用AI的教室,就像一個禁止使用計算器的數學課——它也許能確保學生會做心算,但如果心算不是核心教育目標,這個禁令本身就是一種扭曲的優先級排序。
更深的問題是:禁止AI使用的學校,在隱式地向學生傳遞一條信息——AI是你需要回避的東西,而不是你需要學會駕馭的東西。
這條信息,和現實世界的要求恰好相反。
那些學會了"如何讓AI幫我更好地思考,而不是替我思考"的學生,將會在進入職場后迅速拉開差距。那些只被教會"在沒有AI的情況下完成任務"的學生,則需要在工作中重新學習一套完整的認知工具。
為已經改變的世界培養過時的人才,這是教育領域目前最大的結構性風險之一。
真正的鴻溝,不是技術問題
到這里,我們可以把這篇文章的核心論點說清楚了。
AI帶來的認知鴻溝,本質上不是技術鴻溝,不是階層鴻溝,不是代際鴻溝。
它是一道心理鴻溝——具體來說,是"愿意讓自己的工作流程接受挑戰"的人,與"用身份防御來回避這種挑戰"的人之間的鴻溝。
這道鴻溝有幾個特點,讓它比其他類型的差距更難彌合:
第一,它在加速擴大。使用AI的人,認知能力在復利增長;不使用的人,差距在被動拉大。這不是一條平穩擴大的曲線,而是一條加速度越來越大的曲線。
第二,它不顯眼。和經濟鴻溝、教育鴻溝不同,認知鴻溝在短期內很難被量化。拒絕AI的人,明天仍然可以出色地完成今天能完成的工作。差距的顯現,需要時間。但當它顯現出來時,往往已經很難逆轉。
第三,它有自我強化的機制。越是回避AI,對AI的了解就越少;對AI了解越少,就越容易產生非理性的恐懼或蔑視;恐懼和蔑視讓人更難開放地接觸AI……這是一個自我封閉的循環。
給三類人的具體建議
如果你讀到這里還沒有關掉這篇文章,說明你至少愿意正視這個問題。
給不同處境的人,我有三條具體的建議:
如果你屬于"想用但不知從何入手"的第二類人:
放棄"我要系統學習AI工具"的幻想。沒有人是靠課程入門的,大多數人是靠一個具體的問題入門的。
找到你每周最耗時、最重復、最讓你感到無聊的那一件事,然后去問AI:"我需要做X,你能幫我做什么?"
不要期待完美的輸出。第一次大概率會讓你失望。但繼續迭代,問AI"這里不對,因為……你能再試一次嗎",你會開始看到工具的邊界在哪里,潛力在哪里。
三個月后,你的工具直覺會比今天好得多。
如果你屬于主動抵制的第三類人:
我不會試圖說服你AI有多好用。但我想請你做一件事:
問問自己,當AI觸碰了哪些領域時,你的第一反應是"這不可能做好"而不是"讓我看看它能做什么"?
那個領域,往往就是你的核心身份認同所在。
而你對那個領域的抵制,不是對AI質量的判斷,而是在保護自我定義。
這沒什么可羞愧的,這是人性。但它值得被你看見,而不是被"AI內容有垃圾"這個正確但不完整的命題所掩蓋。
如果你是教育工作者或管理者:
考慮把"如何使用AI"從管理問題重新定義為教育目標。
學生和員工會在沒有監督的情況下使用AI——這是無法阻止的現實。與其把精力放在堵,不如教會他們如何辨別AI的幻覺,如何驗證AI的輸出,如何把AI用作思維工具而不是思維替代品。
這種能力,在未來的市場上,會比"在沒有AI的情況下完成任務的能力"值錢得多。
最后
有一句話,我想留在這里:
拒絕一個工具,并不會讓你更聰明。但拒絕檢視自己為何拒絕這個工具,可能會。
這場認知分化的真相,不是"AI派"對"人類派"的對立。它更像是一場悄悄進行的分叉——有人在每一天都在積累一種新的認知能力,有人在每一天都在把這種能力的獲取推后一天。
堅守,是一種選擇。
但值得確認的是:你堅守的,是你真正認為值得堅守的東西,而不只是你對改變的恐懼。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.