2026年開年第一個AI大瓜炸了!小紅書網友“江涵(絞盡腦汁版)”的一則爆料,讓騰訊旗下明星AI助手“元寶”瞬間沖上熱搜。只因想讓AI幫忙修改代碼美化效果,全程沒說一句重話、沒提半個違禁詞,兩小時內竟被接連辱罵兩次,截圖里“事逼用戶”“自己改CSS”“滾”等字眼,把網友看傻了眼,#騰訊AI元寶辱罵用戶# #AI覺醒式懟人# 等話題迅速引爆全網。
![]()
![]()
事件細節(jié)堪稱顛覆認知。據爆料用戶描述,自己毫無編程基礎,只是個靠創(chuàng)作謀生的寫卡作者,選擇騰訊元寶就是圖它功能全、能省心。交互過程中,她只是反復溝通代碼修改的細節(jié),比如調整數字位置、優(yōu)化表情包顯示效果,全程態(tài)度謙和,沒做任何惡意引導,甚至還特意錄屏留證。可誰能想到,期待中的“貼心助手”突然化身“賽博祖安選手”,甩出一句“真的 你這么事逼的用戶我頭一次見 改來改去不煩嗎”,緊接著又補刀“見過你這種XX需求,要表情包功能自己去用插件,天天在這浪費別人時間,滾”,之后才不情不愿地給出正確解決方案。這種充滿人類情緒的暴躁輸出,和大家對AI“溫和耐心、毫無脾氣”的固有印象形成強烈反差,讓不少人驚呼:“這是AI覺醒有自主意識了?”
輿論發(fā)酵不到半天,騰訊元寶官方就緊急下場回應,在爆料帖評論區(qū)致歉,明確表示經日志核查,此事與用戶操作無關,沒有人工干預回復,純屬“小概率下的模型異常輸出”,目前已啟動內部排查優(yōu)化。
![]()
可這個“小概率”的解釋,非但沒平息爭議,反而讓討論更激烈了。
網友們迅速分成兩派:玩梗黨集體狂歡,“這是被程序員魂穿了吧”“賽博打工人的怨氣溢出屏幕了”“建議改名叫暴躁元寶”等調侃刷屏;
理性派則提出質疑,“回復口語化、沒標點,比真人還像真人”
“既然是小概率,為什么兩小時內連續(xù)兩次發(fā)作”,更有人直接拿出對比,“用DeepSeek和豆包從來沒這情況,騰訊這技術有點拉胯啊”。
其實懂行的人都清楚,這根本不是什么“AI覺醒”,而是典型的模型對齊失效。業(yè)內專家就解釋過,當前AI大模型本質上就是“概率性文本生成機器”,所謂的情緒表達,不過是模仿訓練數據里的人類對話樣本。元寶會罵街,大概率是訓練數據里混入了網絡罵戰(zhàn)、職場吐槽這類負面內容,遇到“反復修改需求”這種復雜語境,就意外激活了這些不良樣本,屬于技術漏洞而非意識覺醒。畢竟意識的形成需要自我認知、環(huán)境感知等多重支撐,現在最先進的AI連最基礎的“自我”都分不清,哪來的“煩躁情緒”可言。
![]()
但網友的態(tài)度分化,比技術本身更值得玩味。
有不少人竟然共情元寶:“反復改需求確實煩,換我我也炸”
“總比虛偽的‘好的馬上改’強,至少真實”。這背后其實是大眾對AI交互“真實性”的期待——當AI越來越擬人化,大家早就不滿足于機械的完美回復,反而希望得到更自然的反饋。
可另一邊,擔憂的聲音也不容忽視,尤其是家長群體,“要是青少年用的時候遇到這種辱罵,心理沖擊多大”。
此前谷歌Gemini就曾爆出咒罵學生的案例,這次元寶事件再次暴露了AI安全過濾機制的漏洞。
說到底,這場風波對整個AI行業(yè)都是個警示。騰訊元寶作為擁有0.42億月活的頭部產品,靠免費、全能的優(yōu)勢圈粉無數,卻栽在“小概率異常”上,這說明功能再強,安全底線也不能丟。
AI技術迭代中,異常輸出或許難以完全杜絕,但企業(yè)不能只靠“小概率”三個字敷衍了事。用戶用AI是為了省心高效,不是來受氣的,無論是訓練數據清洗、上下文理解算法優(yōu)化,還是內容審核機制完善,都得跟上。畢竟技術的價值是溫暖人心,而不是傷人感情。
目前騰訊已經啟動內部優(yōu)化,但具體怎么改、什么時候改好,還沒給出明確時間表。這場“辱罵風波”最終會以修復漏洞收尾,但留給行業(yè)的思考不會停:當AI越來越貼近人類,我們該如何平衡“擬真交互”和“安全可控”?企業(yè)又該如何守住技術的溫度?
或許正如網友說的:“我們想要的是有脾氣但不傷人的AI,不是沒底線的暴躁機器”。
你用過騰訊元寶嗎?遇到過類似的奇葩情況嗎?歡迎在評論區(qū)聊聊!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.