![]()
據弗吉尼亞理工大學新聞網報道,隨著AI聊天機器人與青少年自殺事件的關聯引發關注,OpenAI宣布將于9月推出家長控制功能,允許設置使用限制并在檢測到“嚴重心理困擾”時發送通知。
然而,人工智能與兒童心理學專家警告,這一舉措雖有進步,但仍需更嚴格的監管框架才能真正保護未成年人。 AI監管需超越傳統媒體模式 弗吉尼亞理工大學傳播學教授凱斯·邁爾斯(Cayce Myers)指出:“這些平臺的法律責任將成為未來的主要議題。家長通知和控制是規范AI過度使用的一步,但平臺的終極監管更為復雜,涉及編程、用戶自律和弱勢群體的訪問權限等問題。”他強調,AI交互的類人化特性可能帶來雙刃劍效應——既緩解社交孤立,也可能加劇心理健康問題。 兒童研究中心主任羅莎娜·布魯(Rosanna Breaux)則表示,盡管家長監控與孩子的學業表現和社交功能正相關(減少屏幕時間和負面內容接觸),但青少年網絡使用的實際監管率很低。
“由不良內容觸發的通知系統可在不直接限制AI使用的前提下增強監管,”布魯建議,“但需配套心理健康資源,例如在出現令人擔憂的搜索時主動提供幫助。”
專家給家長的三大建議 除技術層面的控制外,布魯團隊提出實用策略幫助家長預防青少年心理危機: 示范健康習慣:家長應管理自身心理健康并分享應對策略,主動與孩子討論情緒甚至自殺話題,這類對話不會增加風險,反而能打開溝通渠道。 正常化求助行為:不 stigmatize 心理咨詢,將其視為管理壓力的常規方式,可借助正念練習類書籍或應用培養積極應對能力。 關注行為變化:警惕情緒低落、社交退縮、睡眠飲食改變等信號,這些可能是心理危機的前兆。 目前,OpenAI的家長控制功能具體細節尚未公布,但專家呼吁,AI監管需平衡創新與保護,在技術解決方案之外,更需家庭、學校和科技公司的協同努力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.