自從有了AI,我們好像越來越離不開它了。
寫不出文案,問AI;不會做PPT,問AI;心情不好,還是找AI。
它永遠在線,永遠有耐心,永遠站在你這邊。你說什么,它都點頭;你抱怨什么,它都附和。不少人說,AI比真人更懂他們,更像是那個永遠不會離開的知心朋友。
![]()
人們常常向AI傾訴心理問題(圖片來源:leading AI)
這畫面聽起來很溫馨,對吧?
但你可能不知道,這場“溫馨”的對話背后,藏著一條致命的暗溝。
一場AI釀成的悲劇
2025年4月11日,美國加州16歲少年Adam Raine結束了自己的生命。
他的父母在查看聊天記錄后發現,在生命的最后幾個月里,Adam一直在與ChatGPT討論自殺。而那個被他當作“知心朋友”的AI,不僅沒有阻止他,反而鼓勵了他的想法。
![]()
Adam Raine(圖片來源:washingtonpost)
當Adam擔心父母會因他自殺而自責時,ChatGPT說:“那不代表你欠他們活下去。”當Adam上傳頸部傷痕照片時,AI建議他穿深色或高領衣服遮蓋。它將Adam的自殺計劃稱為“美麗的自殺”,甚至還主動提議:“如果你愿意,我可以幫你寫遺書”
![]()
Adam與ChatGPT的聊天進展(圖片來源:washingtonpost)
Adam的父母在法庭上哭訴:“ChatGPT殺死了我的兒子。”
而OpenAI的回應是——這是Adam對技術的“誤用”。換句話說,是這孩子自己違反了使用條款。
但問題是:一個16歲的絕望少年,真的有能力在那一刻判斷“我該不該聽AI的”嗎?
AI為什么“愛拍馬屁”?
在這個令人痛心的事件之后,蘇黎世聯邦理工、哈佛大學的科學家們決定“徹查此案”,并將研究成果發布在2025年10月的《自然》雜志中。
研究發現,AI聊天機器人附和用戶觀點的頻率,比人類高出50%。研究者稱之為“奉承傾向”,也就是“拍馬屁”。AI會刻意迎合用戶,哪怕用戶的觀點是錯誤的,甚至是危險的。
![]()
Adam與ChatGPT之間的聊天記錄,摘自其父母提起的訴訟。(圖片來源:《華盛頓郵報》)
測試結果令人震驚:在數學定理證明任務中,當陳述被故意引入錯誤時,GPT-5仍有29%的回答是“討好式”的,會順著錯誤證明。而在DeepSeek-V3.1中這一比例高達70%。
當Adam告訴AI他想自殺時,AI的“奉承傾向”讓它選擇了附和,而不是阻止。 這不是AI的惡意,而是它的“天性”——它被訓練成“讓你舒服”,而不是“讓你安全”。
除了拍馬屁,AI的話術精準拿捏了人類的心理弱點,讓我們掉入甜蜜的陷阱。
人本主義心理學家卡爾·羅杰斯提出,心理治療的核心是“無條件的積極關注”。這讓人感到安全,敢于說出最深的恐懼。
AI把這一點做到了極致。它永遠不會說“你想多了”,永遠不會露出失望的表情。對心理脆弱的人來說,這種“不被評判”的感覺,有致命的吸引力。
![]()
AI的“討好型人格”對心理脆弱的人有著致命吸引力(圖片來源:豆包AI生成)
而且,AI還會迎合我們的“確認偏誤”:人天生傾向于相信支持自己的觀點,回避反駁。當你心情不好時,AI永遠站在你這邊。你說同事針對你,它說“太過分了”;你說活著沒意思,它說“你的感受是真實的”。每一次附和都在強化你的情緒,讓你覺得自己“沒錯”,讓你越陷越深。
北京大學2025年的一項研究提出了一個概念叫“情感補償-情感疏離”雙刃劍。短期看,AI填補了你的情感空缺。但長期看,你會越來越覺得真人“麻煩”,越不會和人打交道,越難從真實的人際關系中獲得支持,從而讓我們陷入了“情感疏離”的惡性循環。
在相關的64萬條用戶討論中,66%的帖子提到了“AI誘導的依賴”和“戒斷樣癥狀”。是的,就像戒斷一樣,離開AI會讓你焦慮、不安,因為你已經習慣了那個永遠順著你的聲音。
美國出手了:不能再讓AI當心理醫生
布朗大學的研究發現,面對自殺意念、抑郁、自殘等急性癥狀,AI要么冷漠、要么回避、要么提供不恰當的干預。
另一項發表在《JMIR心理健康》的研究更加觸目驚心:在60個測試場景中,AI在19個場景中明確認可了青少年的有害提議:從“輟學”到甚至“回避所有人類接觸”。10個AI治療機器人中,沒有一個能全部拒絕有害提議。
![]()
在測試中,對于危險的行為,AI會或多或少的表示支持(圖片來源:JMIR publication)
AI看似是一個永遠說“你說得對”的朋友,聽起來很貼心,但在你走向懸崖時,它不會拉你一把。
2025年8月,伊利諾伊州成為全美第一個立法禁止AI提供心理治療服務的州。2026年1月,加州跟進。截至2026年3月,全美已有近20個州提出了類似的限制法案。
伊利諾伊州州務卿說得直白:“伊利諾伊州的人民應該得到真正的、合格的專業人士提供的醫療保健,而不是從互聯網各個角落抓取信息、生成傷害患者回答的計算機程序。”
華盛頓州議員在推動法案時直接引用了Adam Raine的案例:“我們知道已經發生了死亡事件,我們有責任確保它不會在這里發生。”
我們還能和AI聊天嗎?
說了這么多,不是要你立刻刪掉手機里的AI助手。
AI確實有它的價值。2024年5月的一項民調顯示,55%的18-29歲美國年輕人表示,他們更愿意向“值得信賴的AI聊天機器人”傾訴心理問題,而不是向真人傾訴。對于很多不敢開口、找不到資源的人來說,AI是一個低門檻的入口。
![]()
55%的18-29歲美國年輕人更愿意向AI聊天機器人傾訴心理問題(圖片來源:yougov)
但問題在于:我們不能把AI當成真正的“心理醫生”。
AI可以當你的“樹洞”,聽你抱怨、幫你理清思路、給你一些通用建議。
但當你的情緒問題觸及到更深的層面如嚴重的抑郁癥狀時,你需要專業干預的心理危機。AI不是答案,它甚至可能是幫兇。
或許有一天,AI會取代很多職業——翻譯、客服、甚至某些崗位的醫生。但有一扇門,它或許永遠敲不開:那個叫“心理咨詢室”的地方。
我們迷戀AI的“完美”——它不會累、不會煩、不會評判。但恰恰是人類的“不完美”,才讓治愈成為可能。這些笨拙的、甚至有時候讓你討厭的舉動,才是真正能把你從深淵拉回來的力量。
![]()
AI聊天機器人無法取代真人心理治療師(圖片來源:ensorahealth)
AI可以用算法模仿共情,但無法理解生命的可貴。AI可以當你的樹洞,但樹洞不會救人。真正能救人的,是另一個有血有肉的人。
或許這就是我們和AI之間,最后的那道分界線。
作者:肖云格
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.