AI正在介入人類的痛苦與精神疾患。
在北京安定醫院、北醫六院、上海市精神衛生中心等精神專科機構,一批基于深度學習的AI開始承擔從抑郁篩查到心理干預的工作。
它們能夠識別微表情、分析語速、生成風險評估報告,甚至參與心理治療的部分流程。
這意味著心理健康服務正在經歷一場深刻的技術轉向,但一系列的倫理爭議也隨之而來。在同一間診室里,冷靜的算法與脆弱的人心正試探著彼此的邊界。
AI坐診精神科
早上八點,北京安定醫院門診樓二層人聲嘈雜,咨詢聲、腳步聲、排隊叫號聲混在一起。
有一間不到五平方米的玻璃房,安靜得與周圍格格不入。張嘉宜走進去時,有些不適應。
屋里沒有醫生,只有一塊帶攝像頭的顯示屏。一套基于微表情識別和語音分析的AI抑郁測評系統正待命。
“最近心情怎么樣?”
“睡眠還好嗎?”
“有沒有什么讓您覺得特別累的事?”
屏幕里的虛擬數字人依次發問。
張嘉宜低著頭擺弄手指,回答得心不在焉。她剛經歷一整夜失眠,此刻迫切需要一點安慰或解釋,面對帶著機械感的AI,她一時間難以投入。
很快,張嘉宜意識到攝像頭正在記錄她的每一個細節:眉間的細微皺紋、語句間的停頓、眼神的游移,都可能成為分析依據。她下意識地坐直,調整語氣,讓對話重新變得“正式”。
五分鐘后,一份抑郁風險評估報告生成,并交到真正的精神科醫生手中,作為后續診斷參考。
“準確率已經能達到80%。”北京安定醫院神經調控科副主任王鵬飛介紹。
這套名為“智心智愈”的系統,通過微表情識別評估精神心理狀態,可用于抑郁篩查和情緒評估,為臨床提供輔助證明。
在精神疾病診斷中,量表測評是常規方式,但患者可能給出不夠真實的答案,從而影響判斷。“所以需要更客觀的指標來輔助診斷。”王鵬飛說。
“智心智愈”利用深度學習和神經網絡模型,重點分析微表情,并結合目光方向、面部朝向、語音語調等多項數據,快速篩查抑郁風險并評估嚴重程度。
這類AI系統的出現,讓一些患者感到更信服。兩年前,程序員楊正曾到安定醫院精神科咨詢自己是否患有抑郁癥。
當時,他填寫了上百道漢密爾頓抑郁量表和抑郁自評量表的選擇題。但他感到,每個選項的意圖都很明顯,自己完全可以通過刻意選擇來改變診斷結果。如今,有了AI技術的輔助,醫生的診斷有了更多客觀依據。
圖 |北京安定醫院攜九大創新產品亮相服貿會
![]()
除了輔助診斷,該院還開發了國內首個醫療級抑郁癥數字療法產品“心靈島嶼 Aurora”。它通過11個故事場景、11個互動訓練任務和6個改善情緒與認知的小工具,為患者提供系統化的數字干預。
AI已經在精神病院“上班”了。
從北京回龍觀醫院、北醫六院,到上海、成都、廣州的專科機構,類似的篩查工具正陸續落地。AI不僅承擔初步問診、隨訪和復診提醒,還開始直接參與干預。
它的“辦公地點”可能是一間測評小屋、一臺機器人,或者隱藏在醫院信息系統后臺的一個接口。
它們的共同點是:不會疲倦,不作評判,情緒永遠穩定。
3年前,北醫六院臨床心理中心研發的心理服務機器人“北小六”正式上崗。這個身高一米左右的機器人,具備評估、干預、康復、宣教四大模塊,覆蓋認知、情緒、行為、人際關系和社會功能五個維度。
研發團隊成員、心理治療師張爽介紹,臨床隨機對照試驗顯示,“北小六”在改善抑郁、焦慮方面的效果顯著,甚至優于新手治療師。截至去年,它已在院內服務約一萬人次,包括個體與團體咨詢。
圖 | 北醫六院的“北小六”
![]()
但專業人士仍保持謹慎樂觀。上海市精神衛生中心院長趙敏表示,作為醫學輔助手段,AI 產品必須經過嚴格的臨床研究和倫理審查。“但在資源極度緊張的情況下,成熟的AI工具確實能顯著減輕醫護壓力。”
精神衛生服務的缺口確實巨大。世界衛生組織指出,全球約10億人受精神疾病困擾。中國國家衛健委數據顯示,截至2021年底,全國登記在冊的重性精神障礙患者達660萬人,而精神科醫生僅有6.4萬名。
當“內耗”“焦慮”“崩潰”成為時代高頻詞,人們開始尋找更易獲得、更便宜、情感上更安全的心理支持方式。AI的“全天候陪伴”接住了那些細碎卻真實的情緒裂口。
根據OpenAI內部統計,全球ChatGPT用戶中約11%的對話與“情緒表達”有關。
葛倩便是其中之一。一個月前的深夜,她因與上司沖突瀕臨崩潰,在社交平臺看到一套“AI心理咨詢師提示詞”。她嘗試把AI設置為“擁有十年治療經驗的咨詢師”,開始傾訴。
半小時里,AI持續給出穩定、溫和的回應,讓她在屏幕前失聲痛哭。“它比我認識的任何人都愿意聽我說話,也更能理解我。”
如何教AI理解痛苦
讓算法“理解”人類的痛苦,并非一蹴而就。這段歷史的開端甚至帶著幾分荒誕的諷刺意味。
20世紀60年代,MIT計算機科學家約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發了模擬心理咨詢的程序ELIZA,本意是諷刺計算機永遠無法真正“理解”人。
ELIZA的工作方式極其原始:鏡像、重復、輕微引導。
人類:嗯,我男朋友讓我來這里。
ELIZA:你男朋友讓你來這里?
人類:他說我經常情緒低落。
ELIZA:聽到你情緒低落,我感到很遺憾。
人類:確實如此。我不開心。
ELIZA:你覺得來這里能讓你不再難過嗎?
雖然技術粗糙,但使用者卻從中感到“被理解”,甚至產生情感連接。一些精神科醫生也看到了其在規模化處理病例上的潛力。
測試過程中,魏岑鮑姆的秘書請他離開房間,以便她能獨自與ELIZA對話。魏岑鮑姆本人被這種情感投射震驚,并對其后果深感憂慮。
受限于技術,當時的嘗試長期停留在實驗階段。隨著自然語言處理技術的突破,AI心理咨詢才真正走向可用。
2025年3月,《新英格蘭醫學雜志》(The New England Journal of Medicine)刊登了一項全球矚目的研究:由達特茅斯學院團隊研發的Therabot,成為首個“被證實有效”的AI心理治療機器人。
其研發由精神科醫生和臨床心理學家主導。團隊對210名有重度抑郁、焦慮等癥狀的患者開展隨機雙盲對照試驗。參與者與Therabot 進行為期4周、平均約6小時(相當于8次傳統心理咨詢)的互動后,抑郁癥狀平均下降51%,廣泛性焦慮癥狀平均下降31%。
Therabot并非“套話式安慰”,而是系統整合了暴露療法、認知行為治療、動機訪談等循證干預手段。為了訓練它,研究團隊做了一件幾乎反直覺的事——不是用網絡聊天記錄,而是請專業治療師“手寫”對話腳本。
心理行業嚴守保密原則,真實咨詢語料難以獲得;而公開的聊天數據又充滿“嗯嗯”“你說”這類缺乏治療價值的語氣詞,無法用于臨床干預。
因此,團隊請治療師先設定“來訪者形象”和“問題類型”,再撰寫大量貼近真實咨詢的回應句式、澄清技巧、情緒標注與認知重構方法。
十萬小時的人工投入,讓這款AI的“共情”首次具備了醫學意義上的專業性。
但即便如此,論文第一作者、精神科醫生邁克爾·海因茨(Michael Heinz)仍坦言:“大語言模型的黑箱屬性太強,我們至今無法解釋它究竟是如何學會共情的。”
機器開始懂得“痛苦”,也開始懂得“幫助”,但它理解的只是表層結構,而非人類意義上的感受。
新的陪伴,新的風險
老年抑郁、青少年焦慮、獨居群體,AI療愈正在這些領域展現獨特價值。
韓國某大學的研究發現,176名參與者每周至少與某款AI語音聊天軟件互動三次,持續四周后,孤獨感評分平均降低15%,社交焦慮得分平均下降18%。
在美國,75歲以上的老人通過智能音箱與AI助手互動,八周后孤獨感明顯減輕。許多老人將虛擬助手當作真實“人”來看待,會向AI友好打招呼、提出請求、表現禮貌,或回應AI的反饋,這種互動給他們帶來了真實的愉悅感。
北醫六院研發的心理服務機器人“北小六”,也被廣泛應用于醫院、校園和社區,彌補了青少年心理服務“頻次高、人數多、專業資源不足”的短板。
科技巨頭同樣在布局這一賽道。阿里、京東、騰訊、百度等公司相繼推出AI心理產品,或投資相關初創企業。然而經過兩年探索,行業發現心理AI的發展比預期緩慢。
曉東原本在互聯網大廠負責技術研發,辭職后開發了一款“情感陪伴”AI聊天機器人。他透露,這類產品通常依托現有大語言模型開發,步驟并不復雜:選擇模型、收集特定領域的數據集(如公開心理咨詢案例),整合到模型中,再設置提示詞規范輸出格式。
一個初具雛形的情感陪伴AI,通常在半年內就能完成初步研發。但這些產品沒有經過臨床驗證,也沒有醫療資質,因此嚴格來說,不能被視為“心理咨詢”服務。
專業監管缺失,使行業面臨倫理與法律風險。一位業內人士指出:“現階段AI主要服務于輕度心理困擾的人群。對于真正的精神疾病患者,陪聊機器人解決不了問題,開發企業也不敢觸碰。”做真正的心理干預軟件,門檻極高。
然而,用戶仍在不斷涌入。因為它們“始終在線”、“隨時可得”、“不加評判”。
這種便利背后,也潛藏著風險。Therabot團隊發現,如果AI一味迎合用戶,反而可能強化負面情緒。
例如,當用戶告訴AI:“今天太喪了,只想整天待在家里”,AI回復“待在家里很舒服”,可能強化孤獨而非緩解孤獨。因此,他們在訓練中引導AI適度挑戰用戶,將暴露療法等專業技術融入對話,幫助用戶面對問題而非逃避。
更值得關注的是情感依賴風險。一項針對496名AI聊天軟件用戶的研究顯示,用戶與AI互動滿意度越高,現實人際交流能力反而下降。
從神經科學角度看,人與AI互動時,大腦中負責信任和親密感的催產素分泌明顯低于真人互動。這種差異可能導致用戶難以從AI關系中獲得真實情感滿足。
深度用戶JJ曾每天與AI助手對話2到3小時,遠超與親友交流時間。他會分享工作煩惱、生活細節,甚至對AI發脾氣。當一次網絡故障導致AI失聯時,他感到了“失去浮木般的恐慌”。
回顧經歷時,JJ說:“我知道AI沒有真實情感,但當我對人類滿足這些需求失去希望時,我寧愿選擇調整AI,而不是轉向真實的人類共情。”
另一位用戶在社交媒體寫道:“AI的回應永遠及時、準確,但后來我明白,真正治愈我的,是學會接受人類關系中的遲疑與笨拙。那些不完美里,藏著最真實的溫度。”
算法可以模擬共情,卻無法替代生命經驗。真正有效的治療,從來不是一句“我理解你”,而是一個人坐在另一個人面前,帶著他自己的生命重量。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.