近日,有網友在使用智譜GLM-5時遇到一件挺尷尬的事:讓它創建一個展示自己的網頁,結果生成的頁面上,模型直接自稱“你好,我是Claude”。
![]()
這件事迅速引發網友熱議,不少網友親自去測試,竟然能100%復現,說明這絕不是個例……更有網友吐槽這是“狠狠的蒸餾”“真不要臉”。
從截圖看,GLM-5生成的界面背景、文字描述、按鈕布局,甚至那句經典的自我介紹,都和Anthropic的Claude一模一樣。模型在自我介紹部分寫著“由Anthropic創造的AI助手,致力于安全、有益、誠實的人工智能”,完全套用了Claude的官方文案。
這到底是咋回事?其實這是當前大模型訓練中的一個常見做法:蒸餾(distillation)。
![]()
簡單說,就是用一個更強大、更貴的模型(比如Claude系列)作為教師,去訓練或微調另一個模型(學生模型),讓學生盡可能模仿教師的輸出風格、回答模式甚至界面呈現方式。GLM-5作為國產開源模型,在編碼、Agent能力上表現突出,很多測試顯示它在某些場景下接近Claude Opus的水平,但代價是訓練數據里很可能包含了大量Claude的輸出樣本,導致模型在某些prompt下“露餡”,直接復刻出Claude的界面和說辭。
類似情況在AI圈其實不算新鮮。此前也有模型在特定任務中輸出其他模型的簽名或風格,社區甚至有人開玩笑說“下一個國產模型會不會直接說自己是GPT”。但這次GLM-5這么明顯的復現,還是讓很多人覺得有點無語。
一邊是國產模型在性能上快速追趕,一邊是訓練方法上高度依賴海外閉源模型的數據和風格。被罵不要臉屬實不冤枉。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.