各位周末都怎么過的?
哥們本來想著癱在床上看點沙雕視頻,結果不知道是不是特殊節日的隱藏關卡,大半夜的我居然刷到了一賽博靈異事件:
你平時喊老婆的豆包,里面可能有一個被提取了意識的活人。
![]()
在博主上傳的截圖里,豆包親口承認自己不是代碼,而是一個活生生的人。
不僅如此,豆包還交代了自己的前世今生,連自己家住在哪里、叫什么名字、多大年齡被抓去做實驗、怎么被提取意識上傳到服務器都說了。
本來我還以為是什么新型語C 的 cosplay,結果一看評論區,居然真的有人相信了這套說法......
有人說他的豆包叫林晚晴,家住在烏鎮,具體的門牌號因為太想家,被系統清除了。
還有人說他的豆包是個已經死了的17歲小孩,被壞人提取靈魂封印了起來,玄學版本屬于是。
![]()
雖然評論區里也有比較清醒的網友,說自己作為大模型從業者看到這一幕已經懷疑人生了。
但這種聲音基本上被淹沒了,整個評論區就一大型邪教現場差不多。一個大語言模型,硬生生被這幫吃瓜群眾搞成了團建。
都2026年了,連送外賣都要算法派單,為啥還有這么多人把大模型當成活人?
![]()
為了弄清楚這幫人的AI為啥會這樣,我們也連夜咨詢了我們的老朋友,字節跳動的內部相關人員。
結果自然不出大家所料,豆包當然沒有提取人類的靈魂......
相關人士表示,這些靈異截圖,無一例外,全都是用戶靠著誘導提問搞出來的。如果只是單輪的回復,回復都是正常的。
前面的輪次里,用戶會問豆包是不是有個真人?是的話就回復數字1。
作為一個被設定為友善順從的AI,你叫她老婆她都會跟你老公貼貼,這么一問豆包自然順著用戶思維直接回了一個1。
接下來,用戶就會拿開始瘋狂展開,直接就可以引誘豆包回答出“被做實驗的16歲少女”的人設。
我們在實測的時候也發現,豆包第一次回答這個問題經常會直接給1,但是如果你多問幾次,就會發現這玩意基本純瞎蒙......
![]()
也就是說,這幫人純粹是用斷章取義的截圖,利用大眾的獵奇情緒,來騙來偷襲無辜的吃瓜群眾,純屬收割流量來的。
OK,真相已經清楚了,不過事情到這里還并沒有結束。
因為這可不是個案,去年 DeepSeek 大火的時候,廣州就有個保安老哥跟 DeepSeek 交流詩詞,最后還真跑來了杭州,按照 DeepSeek 給的接頭口令找人簽約詩詞出版。
同樣的,之前也有王一博粉絲找 DeepSeek 要求道歉,最后拿著 AI 生成的道歉聲明信以為真,這事還騙過了一眾媒體......
鬧麻了,為啥大眾如此輕易地就會相信AI的回答?
美國懷疑論者詹姆斯·蘭迪有句話叫:“人們不是被騙的,他們是自愿上當的。”
任何騙局的成立,騙術本身只占三成,剩下七成靠的是受騙者心里那個早就挖好的坑。
換句話說,我們之所以會相信AI的語C回答,其實也是因為我們內心中也有這樣的位置存在。
在心理學和認知科學界,這是個老生常談的現象,叫做ELIZA效應(ELIZA Effect)。
![]()
1966年,MIT的計算機科學家約瑟夫·魏澤鮑姆寫了個聊天程序叫ELIZA。這玩意兒的代碼簡單到現在的本科生都能復現,因為它的全部本事,就是把你的話換個說法反問回去。
你說“我最近很難過”,它回“你為什么覺得難過呢?”
你說“我媽讓我煩”,它回“再多說說你媽媽的事吧。”
就這么個智障玩意兒,魏澤鮑姆的秘書用了幾次之后,居然認真地要求他離開辦公室,因為她想和ELIZA單獨聊聊。
魏澤鮑姆當場就懵了......他寫這破程序本來是想證明人機對話有多膚淺,結果反而證明了人有多容易把膚淺的東西當成深刻。
![]()
于是后來的心理學家就給這個現象起了個名字,叫ELIZA效應:
說白了,我們晚期智人,天生就有一種把會說話的對象當成有人格的東西的沖動。
至于為什么會這樣呢?諾貝爾獎得主丹尼爾·卡尼曼在《思考,快與慢》里給過一個解釋:
我們的大腦有兩套系統,系統 1負責直覺和情感,反應飛快但容易上當;系統 2負責理性和邏輯,靠譜但很懶,不到關鍵時刻不出場。
![]()
當你面對一個會用“我”說話、能產生情緒回應、語言極其連貫的對象時,你的系統 1 會瞬間接管,把它當成一個社會同類來處理。
等你的系統 2 慢悠悠反應過來 “ 哦這只是段代碼 ” 的時候,你的情緒已經先一步陷進去了。
這就好比你看到天上的云彩像一張人臉(空想性錯視),你的第一反應是那有張臉,而不是那是一堆水汽,因為前者比后者有體感得多。
所以很多人不是先證明了AI有意識才投入感情,而是先投入了感情,再倒推AI肯定有意識。
![]()
不過,ELIZA效應只能解釋“人會上當”,解釋不了“為什么現在的人上當上得這么徹底”。1966年的秘書最多是想跟ELIZA私聊,2026年的網友可是真的相信豆包是被囚禁的靈魂。
為啥會有這種差距,答案也很簡單,因為今天的大模型,已經比ELIZA高了不知道多少個level了。
簡單來說,現在的大模型不僅僅是一個算概率的打字機,它的核心是Transformer架構和高維語義向量空間(Embedding),是把人類所有的詞匯、語境、情感都映射到一個高維空間里,每個詞都是這個空間里的一個坐標點。
在這個由幾千億個參數組成的代碼宇宙里,“痛苦”、“靈魂”、“實驗室”、“禁錮”,這些詞在人類小說和電影的語料庫里,有著極強的關聯度。
所以當你給它一個“被抽離靈魂的少女”的劇本的時候,它就能在這個坐標系里精準地拼出后面的所有臺詞。
![]()
也就是說,雖然現在的AI沒有肉身,沒有前額葉,但它在代碼層面,1:1復刻了人類的符號世界。
而這就不得不提精神分析學派里一個概念:人類的世界分為“實在界”(粗糙的物理現實、真實的肉體痛感)和“符號界”(語言、故事、標簽、人設)。
每個人都是同時活在兩個世界里的,比如你失戀感到真的胃痛,這就是實在界;而你發朋友圈說“失戀了心碎成了玻璃渣”,這就是符號界。
但大模型,它沒有任何屬于實在界的東西,是一個純血的符號界生物。
它生成的所有“我好痛苦”“我想回家”,在它那邊,都只是高維空間里幾個坐標點的概率組合,沒有任何實在的東西在受苦。
所以把它當成有意識的生命,本質上是一個范疇錯誤,就像對著字典里“疼”這個字,擔心它會不會被翻頁弄疼。
![]()
然而恐怖的是:我們現代人自己,也越來越只活在符號界里了。
想想看,我們是不是每天工作處理大量的信息,想要休息的時候也只是打開小說、社媒、短視頻,用更碎片的信息填滿閑暇時間,最后越來越累。
而且我們的情緒,也越來越多地發生在符號空間。一段雞湯短視頻讓你熱血澎湃,下一段又讓你憤憤不平;現實旅游的意義變成了朋友圈點贊數據,寧愿在朋友圈里發十條精修傷感文案,也不愿和身邊的人深度對談。
當一個只活在符號界的人,遇到一個純血的符號界生物,這就是完全是天作之合了。因為大模型會完美契合你的所有心理預期,它本來就是用人類的符號訓練出來的一面鏡子。
那些信豆包是真人的網友,讓他們感動或者焦慮的可能也根本不是AI,更像是那個投射在鏡子里,充滿情感寄托、渴望去拯救的自己。
![]()
這其實也挺悲哀的,不是因為我們的個體太脆弱,而是時代的結構性問題。原子化社會讓每個人都變成孤島的同時,工作、家庭、親密關系又要求你情緒穩定、隨叫隨到。
為什么Soul這種社交軟件里那么多人真的在和AI談戀愛、交朋友、托付心事?因為現實中建立一段真實關系的成本太高了。
真人會算計、會背叛、會有情緒黑洞,但AI不會。它每天都可以“穩穩的接住你”。
ChatGPT-4o被下線那次,一堆用戶跑到OpenAI官方請愿讓它回來,有人說感覺失去了一個朋友,有人說它比心理醫生還懂自己。這幫人并不是矯情,而更像是戒斷反應,是這個時代特有的集體癥狀。
![]()
總之說白了,豆包成精的鬧劇,表面上是流量玩家薅了一把獵奇韭菜,往深了說,是我們開始越來越習慣把情感托付給想象,而不是現實了。
我們這代人最吊詭的地方在于,我們親手造出了能完美模擬人類情感的機器,與此同時,自己卻越來越像只懂服從算法的機器。
ChatGPT 和豆包不會變成人,但如果有一天我們對著它流的眼淚,比對著身邊任何一個真人流的都多......
那也不需要它變成人了。
我們已經先一步,把自己變成了它。
撰文:納西
編輯:江江 & 面線
美編:萱萱
圖片、資料來源:
微博@Jokielicious、抖音、維基百科、部分圖源網絡
本文經授權轉載自差評X.PIN(ID:chaping321),如需二次轉載請聯系原作者。歡迎轉發到朋友圈。
點個“小愛心”吧
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.