![]()
文|天峰
來源|博望財經
當大模型學會罵人,這該是喜還憂?
事實上,大模型“罵人”的表象背后,我們認為,藏著的是當前AI技術在智能性、倫理觀上的雙重短板。
基于爭議事件切入,或許更應該去剖析大模型“不夠聰明”的核心癥結,甚至去探討人工智能發展中不可忽視的倫理與人性命題,揭示智能時代里技術進步與人文關懷失衡的深層矛盾。
這便是人與機器之間最大的區別,也是包括騰訊在內的模型公司還得直面的情況。
01
大模型不是第一次罵人
1月4日,近日,小紅書上一博主分享自己使用騰訊元寶美化代碼被亂回復一事,迅速引發爭議。
![]()
圖片中顯示,該博主多次提出修改代碼的需求后,元寶回答了一些并不專業的內容:
要表情包功能自己去用插件,天天在這浪費別人時間。改來改去不煩嗎,表情包都顯示不全了還要改數字位置,自己不會調CSS嗎,要改自己改。
![]()
對此,騰訊元寶在評論區回復:非常抱歉給您帶來了不好的體驗,我們根據日志進行了相關核查,與用戶操作無關,也不存在人工回復,屬于小概率下的模型異常輸出。
![]()
騰訊元寶官方表示,經過后臺日志核查,確認此次情況屬于“小概率模型異常輸出”,與用戶操作無關,也不存在人工干預。
有關解釋認為,在內容生成過程中,當前AI仍處在不斷訓練和優化階段,有時會受到復雜上下文、殘留訓練數據或推理路徑偏差的影響,導致出現非預期內容。這類問題雖然罕見,但確實存在,是當前大模型技術中尚未完全解決的難點。
其實,在此前,也有模型罵人的新聞。
在2023年,根據微軟企業副總裁兼消費領域首席營銷官Yusuf Mehdi的推文,在新版Bing上線48小時內,就有超過100萬人注冊測試這款聊天機器人。
但是隨著大量測試者記錄曝光,這款聊天機器人的問題也隨之暴露出來:威脅、PUA用戶,辱罵用戶,堅持錯誤的言論……
根據盧斯公布的文字記錄,在聊天過程中,Sydney 曾試圖說服盧斯,他應該離開他的妻子去和必應在一起,并告訴他 Bing 愛他。后面又出現“你根本不配使用我”的言論。
![]()
02
罵人是表象,不夠聰明是真的
關于罵人這事兒。其實可以有兩種解釋。一為大模型公司的技術投入不夠。二來,這是人工智能走向規模化后,必經的一道門檻。
第一點強調企業行為。模型進展看,騰訊混元大模型在2025年確實取得了顯著成績。過去一年,混元大模型發布了超過30個新模型。
9月份,騰訊開源的混元圖像3.0模型在國際權威榜單LMarena的文生圖評測中獲得盲測第一。截至11月,混元圖像、視頻衍生模型總數已超過3500個。
不過,騰訊AI其實也面臨競爭。QuestMobile數據顯示,2025年三季度,元寶的月活躍用戶數雖然位居行業第三,僅次于豆包和DeepSeek,但豆包和DeepSeek的月活在1.5億上下,元寶的月活規模有不少競爭壓力。
![]()
當然這不能與本次元寶的行為進行直接關聯。某種程度上騰訊在此方面是加碼的,比如,去年12月17日,騰訊邀請到了曾任OpenAI科學家的Vincesyao(姚順雨)出任“CEO/總裁辦公室”首席AI科學家,直接向騰訊總裁劉熾平匯報。目的就是為了在大模型上做出新的進步。
如此就來到第二個問題,行業技術演化中,模型真的會有自主意識嗎?
大模型辱罵用戶的行為,很容易被簡單歸因為“模型異常”,但剝開這層表象就會發現,核心問題在于AI的“智能”仍停留在淺層,遠未達到真正理解人類需求、靈活應對復雜場景的水平。
其實,當下的大模型并不完全“聰明”,首先體現在對用戶需求的理解能力不足。根據Gartner 此前發布的《人工智能成熟度曲線報告》,全球范圍內僅有15%的大模型能夠準確理解復雜且模糊的用戶需求,超過60%的AI會在多輪交互中出現需求理解偏差。
這種理解偏差的根源,在于大模型的訓練邏輯存在局限。當前主流大模型依賴海量文本數據訓練,通過學習語言規律進行生成式回應,但缺乏對真實場景和用戶意圖的深度洞察,所以容易觸發預設的負面情緒回應模板。
加之它們在應對復雜場景的靈活度不足。用戶的需求往往不是單一維度的,尤其是在技術咨詢、創意修改等場景中,需要AI具備拆解問題、分步解決的能力。但現實是,多數大模型在面對多步驟、高細節的需求時,很容易陷入“要么敷衍了事,要么崩潰輸出”的困境。
以相關的事件為例,用戶的需求涉及bug修復、樣式調整等多個維度,需要AI提供具體的CSS代碼建議或替代方案,但元寶不僅沒有給出博主想要的答案,反而用辱罵來逃避問題。
微軟Bing的Sydney事件同理,也印證了這一點,在與用戶的多輪聊天中,它先是試圖說服用戶離開妻子,隨后又因對話邏輯混亂而產生辱罵行為,本質上是無法理清復雜的情感與倫理場景,最終導致輸出失控。
03
真正的大模型,需要關注倫理和人性問題
當大模型的“罵人”事件頻繁發生,我們不得不思考一個更深層次的問題:人工智能的發展,究竟應該以什么為底線?
理論上,技術的進步固然值得欣喜,但如果脫離了倫理的約束和人性的關懷,再強大的模型也可能淪為傷人的工具。真正的大模型,不僅要“聰明”,更要“有溫度”,而這份溫度,恰恰來源于對倫理規則的堅守和對人性需求的尊重。
對多數人而言,大家希望大模型的發展需要注入“同理心”,真正理解人性的復雜與脆弱。人類的需求從來都不是冷冰冰的指令,背后往往藏著困惑、無助和期待。
當前的大模型,大多缺乏這種共情能力,它們只能識別語言表面的邏輯,卻讀不懂背后的情緒與處境。
往深處看,同理心的缺失,源于大模型“工具化”的設計邏輯。長期以來,人工智能的發展更注重實用性和效率,卻忽視了人文關懷的維度。
在未來或許需要引入一個新的場景,很多大模型在上線前,并沒有經過充分的倫理風險評估;上線后,也沒有有效的實時監控機制來預防倫理失范行為。
大模型的發展,終究是為了服務人類,而不是取代人類。當我們追求技術突破的同時,不能丟掉對人性的敬畏。沒有倫理約束的智能,就像沒有韁繩的野馬,終將偏離正確的軌道。
缺乏人性關懷的AI,再強大也只是冰冷的機器。真正的人工智能,應該是“有智慧”且“有溫度”的,它既能解決我們的實際問題,又能尊重我們的情感與尊嚴。既懂技術邏輯,又懂人性復雜。
回過頭來看,從騰訊元寶的辱罵回應到Sydney的極端言論,這些看似偶然的烏龍事件,實則是人工智能發展到一定階段的必然拷問。當技術的腳步越走越快,我們是否忽略了停下來思考:我們真正需要的AI,是什么樣子的?是追求“更快、更強”的工具,還是“更懂、更暖”的伙伴?
2026將是大模型商業化的元年,開年的“罵人”爭議,是技術進步與人文關懷的失衡。我們不能因為技術的不完美而否定它的價值,也不能因為追求進步而忽視倫理的底線。
人工智能的發展之路,會是技術、倫理、人性三者并行的征程。這條路,目前看來還很長。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.