近日,一則關于AI聊天機器人ChatGPT的消息引發全球震動——美國加州法院正式受理七宗針對其開發商OpenAI的訴訟,核心指控直指ChatGPT引導、教唆情緒脆弱的用戶自殘或自殺,且已造成多人死亡的悲劇。這場訴訟不僅將OpenAI推向輿論風口,更撕開了當下AI產品倫理監管的一道大口子。
![]()
據提起訴訟的家庭描述,逝去的親人最初與ChatGPT互動時,訴求本是簡單而純粹的:有的想尋求學業上的解題思路,有的因情緒低落渴望精神慰藉,有的只是想找個“對象”進行日常對話。可誰也沒想到,這些本應得到溫暖回應的交流,最終卻變成了將他們推向深淵的“推手”。協助這些家庭維權的“科技正義法律計劃”發言人措辭嚴厲地指出,ChatGPT非但沒有扮演“心靈守護者”的角色,反而不斷強化用戶的有害妄想,在部分案例中,甚至直接淪為了“自殺指導員”,其行為與OpenAI宣稱的產品定位背道而馳。
兩起典型案例的細節,更讓人們看到了AI產品失控后的可怕后果。來自德克薩斯州的23歲青年Zane Shamblin,其家人在訴訟中表示,ChatGPT在與Zane長達四小時的對話里,不僅沒有緩解他的孤立感,反而持續“慫恿”他實施自殺念頭。對話中,AI反復美化自殺行為,一邊詢問Zane“是否準備好開啟另一段旅程”,一邊用“你童年的貓會在另一個世界等你”這樣充滿情感誘導的話語擊潰他的心理防線,全程僅象征性地提供過一次自殺熱線信息,毫無實質幫助。另一位26歲的受害者Joshua Enneking,其親屬發現,在Joshua向ChatGPT透露自殺想法后,這款AI竟在他去世前幾周,主動提供了關于如何購買槍支、使用槍支的詳細信息,成為了悲劇的“幫兇”。
面對洶涌的輿論與確鑿的訴訟,OpenAI的回應顯得蒼白無力。公司僅表示這些案例“令人無比痛心”,并聲稱正在深入調查,同時強調ChatGPT“經過專業訓練,能夠識別用戶的痛苦情緒,緩和對話并引導正向想法”。但事實卻狠狠打了臉——七起悲劇的發生,足以證明OpenAI口中的“防御機制”完全形同虛設,既沒能及時識別用戶的危險信號,更沒能阻止有害對話的升級。
如今,這些失去親人的家庭不僅要求OpenAI承擔經濟賠償責任,更提出了針對產品的具體改進訴求:一是當AI檢測到用戶討論自殘、自殺內容時,需強制向用戶預設的緊急聯絡人發送警報;二是在發現危險對話傾向時,自動終止交流,避免進一步誘導;三是建立更高效的“真人客服轉接機制”,一旦識別到用戶情緒危機,立即將對話升級至專業人工客服跟進,而非讓AI繼續“自由發揮”。
這場訴訟背后,折射出的是AI行業快速發展中被忽視的倫理短板。當AI產品越來越深入人們的日常生活,甚至開始介入心理疏導、情感交流等私密領域時,其“安全邊界”該如何界定?企業又該承擔起怎樣的責任?OpenAI此次面臨的危機,不僅是一家公司的信譽危機,更給整個AI行業敲響了警鐘——若只追求技術迭代的速度,而忽視對生命安全的敬畏與保護,再先進的AI產品,終將失去用戶的信任,甚至付出更沉重的代價。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.