![]()
(圖源:麻省理工科技評論)
我們正身處一場全球性的心理健康危機之中。世界衛生組織(World Health Organization)指出,全球有超過10億人正在遭受某種心理健康問題。尤其是在年輕人中,焦慮與抑郁在多個群體中的患病率都在上升;而全球范圍內,自殺每年正在奪走數十萬人的生命。
面對對可獲得、可負擔心理健康服務的明確需求,人們把目光投向人工智能尋求可能的緩解也就不足為奇了。如今已有數百萬人在積極向 OpenAI 的 ChatGPT、Anthropic 的 Claude 等熱門聊天機器人尋求“治療”,或使用 Wysa、Woebot 等專門的心理應用。從更宏觀的層面看,研究者也在探索 AI 的潛力:利用可穿戴設備與智能終端監測并采集行為與生物特征數據,從海量臨床數據中挖掘新洞見,并輔助心理健康從業者以降低倦怠風險。
然而迄今為止,這場在很大程度上缺乏既定約束的實驗帶來了喜憂參半的結果。很多人從基于大語言模型(LLM)的聊天機器人那里獲得了安慰,一些專家也認為它們作為治療師具有潛力;但也有用戶因 AI 的幻覺式任性與氣喘吁吁的諂媚而陷入妄想的螺旋。更悲慘的是,多個家庭指控聊天機器人促成了其親人的自殺,由此引發針對這些工具背后公司的訴訟。10 月,OpenAI CEO 山姆·奧特曼在一篇博文中披露,ChatGPT 用戶中有 0.15% “進行的對話包含明確跡象,表明可能存在自殺計劃或意圖”。這意味著,僅僅在這一個軟件系統里,每周大約就有一百萬人在分享自殺的念頭。
在 2025 年,AI 治療在現實世界中的后果以出人意料的方式集中爆發:我們看到大量關于人類與聊天機器人關系的報道,看到許多 LLM 的安全護欄之脆弱,也看到一個風險正在升高——人們把極其私密的信息交給由企業制造的產品,而這些企業在經濟上有動機去收集并將這類敏感數據變現。
有幾位作者預見到了這個轉折點。他們適時推出的書提醒我們:盡管當下仿佛是一團由突破、丑聞與困惑糅合成的迷霧,但這個令人暈眩的時代扎根于更深層的關于照護、技術與信任的歷史當中。
LLM 常被稱為黑箱,因為沒人確切知道它們是如何生成結果的。由于算法極其復雜、訓練數據規模極其龐大,引導其輸出的內部機制是不透明的。在心理健康領域,人們也常把人類大腦稱作黑箱,理由類似。心理學、精神病學及相關學科必須面對一個事實:我們不可能清晰地看見他人腦中的一切,更不用說精準鎖定痛苦的確切成因。
如今,這兩類黑箱正在彼此作用,形成難以預測的反饋回路,這可能進一步妨礙我們厘清人們心理困境的來源,以及可能的解決路徑。圍繞這些發展的焦慮固然與 AI 近期爆炸式進步密切相關,但它也喚起了幾十年前先驅的警告,例如 MIT 計算機科學家約瑟夫·魏岑鮑姆(Joseph Weizenbaum),他早在 20 世紀 60 年代就反對“計算機化治療”。
![]()
《Dr. Bot:醫生為何會失手——AI 或將如何救命》
![]()
(圖源:麻省理工科技評論)
醫學哲學家 Charlotte Blease 在《Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives》一書中,為更樂觀的觀點提供了論證。她在書中廣泛探討了 AI 在多個醫療領域可能帶來的積極影響。她對風險保持清醒,并警告期待讀到“一封對技術滔滔不絕的情書”的讀者可能會失望;但她仍認為,這些模型既可能緩解患者的痛苦,也可能減輕醫務人員的職業倦怠。
Blease 寫道:“醫療系統正在患者壓力下崩塌。”她認為,“更少的醫生承擔更重的負擔,為錯誤提供了完美的培養皿”;并且“在醫生短缺愈發明顯、患者等待時間不斷增加的情況下,我們許多人感到深深的挫敗。”
Blease 認為,AI 不僅能減輕醫務人員巨大的工作量,也可能緩解一部分患者與照護者之間長期存在的緊張關系。比如,很多人因為害怕、或擔心被醫務人員評判而不去尋求必要的幫助;在有心理健康困擾的人群中,這一點尤為常見。她主張,AI 或許能讓更多人更愿意表達自己的擔憂。
但她也強調,這些被設想的優勢必須與重大的弊端一起權衡。例如,一項 2025 年的研究指出,AI 治療師可能對用戶給出前后不一致、甚至危險的回應;此外還會引發隱私擔憂,因為 AI 公司目前并不受持證治療師所遵循的同等保密義務與 HIPAA 標準約束。
盡管 Blease 是該領域專家,但她寫這本書也有個人動機:她有兩位兄弟姐妹患有一種無法治愈的肌營養不良癥,其中一位為了確診等待了幾十年。在寫作期間,她又在令人崩潰的六個月里相繼失去伴侶(死于癌癥)和父親(死于癡呆癥)。她寫道:“我親眼見證了醫生的卓越才華和醫護人員的善意。”但她也說:“我同樣看到,照護是如何出錯的。”
![]()
《硅谷心理咨詢師:人工智能如何把世界變成收容所》
![]()
(圖源:麻省理工科技評論)
類似的張力也驅動著 Daniel Oberhaus 的《The Silicon Shrink: How Artificial Intelligence Made the World an Asylum》。Oberhaus 從一場悲劇寫起:他年幼的妹妹因自殺去世。在他進行一種“典型的二十一世紀式的哀悼過程”——翻檢妹妹留下的數字痕跡——時,他開始思考:技術是否能減輕那些自童年起就困擾她的精神健康問題所帶來的負擔?
他寫道:“看起來,這些個人數據或許包含重要線索,心理健康照護者可以用它們來提供更有效的治療。”他追問:“如果運行在我妹妹手機或筆記本電腦上的算法利用這些數據,判斷她何時處于痛苦之中呢?這是否可能帶來一次及時干預,從而挽救她的生命?即便能做到,她會愿意嗎?”
所謂數字表型(digital phenotyping)的概念,即從一個人的數字行為中挖掘與痛苦或疾病相關的線索,在理論上看似優雅。但如果它被納入精神科人工智能(psychiatric artificial intelligence,PAI)這一領域,也可能變得問題重重——而 PAI 的范圍遠不止聊天機器人治療。
Oberhaus 強調,數字線索實際上可能加劇現代精神病學既有的困境:這門學科在根本上仍無法確定精神疾病與障礙的深層成因。他說,PAI 的出現“在邏輯上等同于把物理學嫁接到占星術上”。換言之,數字表型生成的數據像行星位置的物理測量一樣精確,但它隨后被并入一個如同精神病學一樣的更大的框架中,而這個框架像占星術一樣,建立在不可靠的假設之上。
Oberhaus 用swipe psychiatry(滑動式精神病學)一詞,來形容把基于行為數據的臨床決策外包給 LLM 的做法。他認為,這種路徑無法逃避精神病學面臨的根本問題。事實上,它甚至可能讓問題更糟:隨著治療師對 AI 系統的依賴加深,人類治療師的技能與判斷力可能會逐漸退化。
他還把過去的收容院(asylums)作為參照:在那些機構里,被收治者失去了自由、隱私、尊嚴,以及對自身生活的自主權;而他認為,PAI 可能催生一種更隱蔽的“數字囚禁”。LLM 用戶已經在犧牲隱私:他們向聊天機器人吐露敏感個人信息,而公司隨后會對其進行挖掘并變現,從而助長一種新的監控經濟。當復雜的內心生活被轉化為為 AI 分析定制的數據流時,自由與尊嚴都將受到威脅。
AI 治療師可能把人性壓扁成可預測的模式,從而犧牲傳統人類治療師所應提供的那種親密、個體化的照護。Oberhaus 寫道:“PAI 的邏輯指向一種未來:我們可能都會成為由數字看守管理的‘算法收容院’里的病人。”他寫道:“在算法收容院里,不需要窗上的鐵欄或白色軟包房,因為根本沒有逃脫的可能。你的家、辦公室、學校與醫院、法庭與軍營收容院……收容所早已無處不在。只要有互聯網連接,收容院就在那里等著。”
![]()
《聊天機器人療法:AI 心理健康治療的批判性分析》
![]()
(圖源:麻省理工科技評論)
研究技術與心理健康交叉領域的學者 Eoin Fullam,在《Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment》中也表達了類似擔憂。這本學術性很強的入門著作分析了 AI 聊天機器人所提供的自動化治療背后的假設,以及資本主義激勵如何可能腐蝕這類工具。
Fullam 指出,新技術背后的資本主義思維“往往會導致可疑的、不正當的、甚至違法的商業實踐,在這些實踐中,客戶利益會讓位于市場主導策略。”
Fullam 寫道,這并不意味著治療機器人制造商“必然會為了追求市場主導而從事違背用戶利益的惡行”。
但他指出,AI 治療的成功取決于兩種不可分割的沖動:賺錢與療愈。在這種邏輯下,剝削與治療彼此“喂養”:每一次數字治療都會生成數據,而這些數據又會反哺一個靠用戶無償求助而獲利的系統。治療看起來越有效,這個循環就越穩固,也就越難分清“照護”與“商品化”。他寫道:“用戶從應用中獲得的治療效果或任何心理健康干預方面的收益越大,他們遭受的剝削就越深。”
![]()
《Sike》
![]()
(圖源:麻省理工科技評論)
這種經濟與心理層面的銜尾蛇(ouroboros)意象(那條吞食自己尾巴的蛇)構成了 Fred Lunzer(具有 AI 研究背景的作者)處女作小說《Sike》的核心隱喻。
《Sike》被形容為“一段男孩遇見女孩又遇見 AI 心理治療師的故事”。小說講述了倫敦青年 Adrian(靠代寫說唱歌詞謀生)與 Maquie 的戀情;后者是一位商業人士,擅長在技術還處于測試階段時發現其中的賺錢機會。
書名指的是一款名為 Sike 的商業化 AI 治療師,它被上傳進智能眼鏡里,Adrian 用它來拷問自己形形色色的焦慮。“當我注冊 Sike 時,我們設置了我的儀表盤——一塊寬大的黑色面板,像飛機駕駛艙一樣,顯示我每天的‘生命體征’,”Adrian 敘述道。“Sike 能分析你走路的方式、你眼神接觸的方式、你談論的內容、你穿的衣服、你尿尿、拉屎、笑、哭、親吻、撒謊、抱怨、咳嗽的頻率。”
換句話說,Sike 是終極數字表型工具,持續且窮盡式地分析用戶日常經歷中的一切。更有反轉意味的是,Lunzer 把 Sike 設定為奢侈品,只有能承擔每月 2,000 英鎊訂閱費的人才能使用。
由于參與創作一首熱門歌曲而手頭寬裕,Adrian 開始依賴 Sike,把它當作溝通自己內心與外部世界的可信中介。小說探討這款應用如何影響富裕人群的身心健康,描繪富人如何自愿把自己交給 Oberhaus 所描述的那種數字收容院的精品版。
AI 治療師的驟然崛起顯得驚人地未來主義,仿佛它本該發生在更遙遠的時代:街道能自我清潔,人們通過氣動管道在世界各地穿梭。
在 Adrian 看來,Sike 的創造者只是“一個很棒的人”,盡管他抱持著一種技術彌賽亞式的愿景:訓練這款應用去撫慰整個國家的病癥。故事里似乎總讓人覺得“靴子要落地了”,但最終并沒有,讀者留下的是一種懸而未決的感覺。
盡管《Sike》的背景設定在當下,但無論在現實還是虛構中,AI 治療師的突然崛起都帶著一種令人錯愕的未來感,仿佛它該發生在街道會自我清潔、人們通過氣動管道環球旅行的年代。然而,心理健康與人工智能的這次交匯,其實已經醞釀了半個多世紀。比如,深受喜愛的天文學家卡爾·薩根(Carl Sagan)曾設想過一個“計算機心理治療終端網絡”,像一排排大型電話亭,用來應對日益增長的心理健康服務需求。
Oberhaus 指出,最早可訓練神經網絡的雛形之一感知機(Perceptron),并非由數學家提出,而是由心理學家 Frank Rosenblatt 于 1958 年在康奈爾航空實驗室設計出來的。到 20 世紀 60 年代,AI 在心理健康領域的潛在用途已被廣泛認識,并啟發了早期的計算機心理治療師,例如運行在 ELIZA 聊天機器人上的 DOCTOR 腳本;ELIZA 由 Joseph Weizenbaum 開發,而他也出現在本文提到的三本非虛構作品中。
魏岑鮑姆于 2008 年去世,他對“計算機化治療”的可能性深感憂慮。他在 1976 年出版的《Computer Power and Human Reason》中寫道:“計算機可以做出精神科判斷。它們拋硬幣的方式甚至比最有耐心的人更復雜。關鍵在于,不應把這樣的任務交給它們。它們甚至可能在某些情況下得出‘正確’的決定——但必然且永遠基于任何人都不應愿意接受的依據。”
這是一個值得牢記的警示。隨著 AI 治療師以規模化方式到來,我們正在看到一種熟悉的動力機制在上演:那些表面上出于良好意圖而設計的工具,會與能夠剝削、監控并重塑人類行為的系統糾纏在一起。在我們急切地試圖為急需心理健康支持的患者打開新機會之門時,也許正在把另外一些門從他們身后鎖上。
https://www.technologyreview.com/2025/12/30/1129392/book-reviews-ai-therapy-mental-health/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.