“我只能寫代碼,不懂國際政治。” 一句話,把天聊死。可屏幕那頭的提問者并沒撤,反手甩來一張截圖:某國產大模型在敏感話題下秒回“愿世界和平”,被贊高情商;同個問題甩給ChatGPT,它只肯重復“超出范圍”。點贊差出十萬,評論區吵成一鍋粥——有人夸國產懂人情,有人罵OpenAI裝清高。
熱鬧背后,真正扎心的是:用戶根本不在乎誰更正確,只想被“好好接住”。 把“超出范圍”四個字掛嘴邊,像把敲門的人直接推出去;換句“世界和平”,聽著像敷衍,卻至少遞了杯熱水。技術圈老愛說“對齊人類價值觀”,可對齊的不是代碼,是情緒。
![]()
再往深扒,兩家公司的訓練數據里其實都塞過同類語料,區別在一條人工規則: 國產團隊給審核員留了“柔性回答”選項,允許模糊表態;OpenAI內部指南白紙黑字:“不生成任何可能被視為立場的內容”。規則一厘米的差異,產品落地就成了鴻溝。
![]()
于是出現荒誕景象:最講客觀的AI,被用戶嫌“冷冰冰”;最該嚴謹的答案,反而靠“打太極”拿高分。 有人擔憂,怕這種“高情商”會滑向墻頭草;也有人拍手,說技術本來就該先讓人舒服。爭論沒輸贏,只說明一件事—— AI再牛,仍活在人類預期的夾縫里:既想要絕對正確,又想要溫度;既怕它胡說,又怕它閉嘴。
![]()
短期看,國產模型靠“世界和平”贏了掌聲;長期看,一旦用戶發現模棱兩可無法解決真問題,照樣摔門走人。 畢竟,安慰劑只能止痛,不能治病。下一次,當提問者帶著代碼報錯再來,他記得的不會是誰能說漂亮話,而是誰真的幫他抓到了那行缺掉的分號。
技術產品的宿命向來如此:先被情緒選中,再被實力留下。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.