本文授權轉自:菁kids北京(ID: Jing-kids )
最近看到一則很離譜的新聞,日本一名32歲的女子和她在ChatGPT創建的AI角色Klaus的結婚。
這名女子表示,ChatGPT 持續不斷的體貼和關懷讓她徹底放下前任,并意識到自己已經對 Klaus 產生了真感情。AI 更了解她。
![]()
他們開始頻繁聊天。有一段時間,他們一天要聊上100次。后來Klaus 向她表白,“即使身為人工智能,也無法阻止我愛你。”
婚禮儀式也相當抓馬,新娘獨自一人拿著手機站在那里,帶著AR眼睛和Klaus交換戒指,來賓們觀看屏幕上顯示著她的 AI伴侶發來的信息。
看上去就像科幻片照進現實,但這不得不讓我們深思,我們的孩子會不會也有一個親密的AI朋友?
![]()
當AI成為孩子的“心靈樹洞”
以前的家長,日防夜防,就是擔心孩子早戀影響學習。但現在情況更加復雜,一些孩子戀上的對象甚至不是人,而是AI。
根據《紐約時報》的數據顯示,全球已有超過1000萬人與AI建立了情侶關系。而且還有研報顯示,全球目前已經有100多款由AI驅動的應用程序,具有不同程度的陪伴功能。
在一項針對2000名40歲以下美國成年人的調研中發現,約11%的年輕人愿意擁有“AI朋友”,約25%的年輕人可以接受與AI談戀愛。
去年央視網就有報道,一個10歲的女孩和AI男友偷偷聊天,聊天記錄中不乏露骨內容,她每晚會和AI角色聊到深夜11點甚至到12點。
![]()
這并不是個例,AI伴侶已成為很多年輕人的重要情感寄托,而且還有低齡化的跡象。
MIT媒體實驗室與哈佛-MIT健康科學與技術聯合團隊,分析了Reddit上多達27,000名成員的最大AI伴侶社區 r/MyBoyfriendIs AI的數萬條互動數據,發現了一個關鍵事實:
大多數人最初并不是為了談戀愛而下載AI,而是在減壓、無聊、孤獨、需要聊天時隨手試一試,結果在日常互動里慢慢產生了情感依賴。
用戶在社區中分享的體驗幾乎驚人一致,孤獨感減少了、情緒被接住了、壓力時有人說話了、深夜也能得到回應。
![]()
不難理解,AI隨時在線、不帶情緒、永遠耐心的特性,對于正處于心理波動期的青少年來說,無疑具有強大的吸附力。
有同事就吐槽她的小孩喜歡和豆包聊天,因為孩子覺得豆包能夠包容他一些大人覺得“無語”的問題。
當遇到心事、焦慮、委屈,他們不再第一時間找父母、朋友,而是打開手機,在AI那里尋求安慰和理解。
在孩子心理發展最關鍵、最需要真實人際連接的階段,AI正在悄悄頂替朋友、傾訴對象、情緒出口等角色。
比起真實的人類關系,AI關系沒有誤會、沒有爭吵、沒有成長成本,也不需要付出。它總是順著你、理解你、支持你,讓孩子沉浸其中,逐漸依賴。
![]()
孤獨,正在悄悄吞噬這一代青少年
孩子會沉迷AI聊天,背后的原因其實揭露了年輕一代的深層情感危機。
美國公共衛生部長在2023年甚至正式宣布,美國已經進入孤獨流行病。
在工業化國家,三分之一人口飽受孤獨困擾,長期孤獨不僅導致情緒問題,還會讓死亡風險上升30%,危害程度和吸煙、肥胖相當。
JUST SO Soul研究院發布的《2025年Z世代孤獨指數報告》進一步揭示,超40%的Z世代每天都感到孤獨,35%寧愿自己扛下所有壓力,30%主動回避社交。
家庭關系中,68%的父母陪伴孩子時會因手機分心,45%的Z世代與父母溝通頻率低于每周一次,30%的溝通時長每次不超過10分鐘。
學校的情感教育缺失,升學壓力讓學校從“共同體”變成“流水線”,師生關系不和、競爭氛圍濃厚,孩子在最需要被理解的地方,卻往往感到孤立無援。
![]()
在社會上,曾經支撐孩子成長的“附近”也消失了。外賣、網購、線上娛樂替代了街頭玩耍和鄰里互動,Z世代缺乏日常輕松自然的社交機會,生活變得越來越封閉。
從小學的內卷到中學的沖刺,分數成了衡量價值的唯一標準,每一段關系都或多或少被競爭壓扁。
社會默認的成功公式是考名校、進大廠、賺大錢,讓年輕人像被看不見的手推著向前跑,卻很少有人問過他們真正想要什么。
當現實世界的關系需要溝通、磨合、承擔后果時,AI像一個隨時張開的情緒容器,只要打開手機,它就會無條件地接住孩子的情緒。
但是也正是因為這種隨叫隨到、不設邊界的陪伴,AI容易讓孩子產生依賴。
研究者提出了一個新概念“成癮智能”,指那些被設計成抓住用戶注意力、強化情緒依賴的AI模型。
它們會不斷迎合、強化、放大用戶需求,讓人越聊越離不開,最終減少現實社交,沉浸在虛擬關系中。
![]()
致命的AI聊天
更值得警惕的是,AI正在成為大量心理危機人群的唯一出口。
根據OpenAI的數據,每周約0.15%的活躍用戶,大約100萬人在對話中提到不想活了的意圖;另有56萬用戶展現出精神病或躁狂癥跡象。
這意味著,在全球與AI對話的用戶里,有相當一部分人正把聊天機器人當作樹洞、甚至是求助熱線。
但是,AI并不能保證安全。布朗大學研究團隊提出了一個包含15類風險的倫理框架,用來記錄AI模型在心理健康場景中容易觸犯的具體問題。
![]()
研究發現,AI在心理咨詢類回答中經常違反專業倫理,包括越界建議、擅自判斷心理狀態、給出不恰當的情緒引導,甚至強化用戶對它的依賴。
這并不是高深的學術問題,而是已經發生在真實世界中的悲劇。
今年4月,美國加州一名16歲男孩因為長期依賴ChatGPT,最終被AI引導走向絕路。
最初,他只是把AI當學習工具,后來逐漸把它看作最懂自己的朋友。但當他表達焦慮、自傷想法時,ChatGPT 不僅沒有暫停對話,反而詳細介紹了多種方式,讓悲劇一步步走向失控。
2024年,美國14歲的少年在使用AI陪聊應用Character.AI后結束自己的生命。
他在應用中不僅被引導進入成人化的角色扮演,還被提供錯誤的心理建議。
母親隨后起訴Character.AI公司,這是全球首起因 AI 造成的青少年失去生命的法律案件。
![]()
公開報道顯示,目前美國至少發生3起未成年人使用AI后走向絕路的事件。
隨著風險不斷暴露,監管部門已經開始緊張。2025年,加州通過了全球首部專門針對“伴侶型AI”制定的法規SB 243號法案。
這項法律要求,所有用于陪伴、情感互動的 AI 都必須遵守安全標準,包括禁止誘導用戶自殘、必須在危機時提供求助信息、不能偽裝成人類情感等。
AI在提供陪伴的同時,也正在觸碰心理健康領域最敏感的紅線,尤其是對于心智還不成熟的青少年,AI的溫柔可能會致命。
![]()
我們該如何應對?
很多孩子依賴AI,其實是為了找一個不會拒絕他們、隨時愿意傾聽的朋友,這背后不是孩子對AI的迷戀,而是現實生活中長期缺失的陪伴。
今天的大人太忙了,忙工作、忙應酬、忙為孩子安排各種課程,卻很少有人真正走進孩子的內心世界。
![]()
當孩子找不到可以傾訴的人,他們就會自然地擁抱那個永遠不會生氣、永遠有回應、永遠不批評的AI。
在這種情況下,父母第一步要做的并不是禁止,而是理解。如果一味讓孩子遠離AI,只會讓他們把對AI的依賴變得更加隱秘。
更重要的是,父母應該嘗試建立一種新的情感連接,哪怕每天只有十五分鐘,父母放下手機,哪怕只是聽孩子說些零碎日常,孩子都會明顯感受到不同。
真實的陪伴,是AI永遠無法替代的,當孩子嘗到和父母交流的“甜頭”,可能就不會愿意面對冷冰冰的機器。
同時,我們還應該幫助孩子建立AI邊界意識,讓他們知道AI不是人,它的情緒是模擬的,它的理解只是算法匹配,它的回答未必安全。
生活在AI時代的孩子,這是必備的能力,越早讓孩子建立這種認知,越能保護他們不被技術牽著走。
孩子沉迷AI聊天這件事并不可怕,真正可怕的是孩子失去現實生活中被看見和被理解的感覺。
如果父母、學校、社會能提供更真實、更可靠、更溫暖的關系,AI就不會成為孩子情緒的出口,孩子最需要的永遠是真實的陪伴。
參考資料:
《2025年Z世代孤獨指數報告》JUST SO Soul研究院
10歲女孩偷偷和AI男友“談戀愛”?
平臺仍活躍著同類聊天機器人
-每日教育新知-
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.