![]()
上周,一些ChatGPT的用戶開始報告他們收到了一些出人意料的回答,紛紛涌向Reddit上的ChatGPT版塊,報告這位AI助手的“大腦短路”、“語無倫次”和“徹底崩潰”。
OpenAI承認了這一問題,并在上周三下午之前修復了這一故障,但這一事件成為了一個引人注目的案例,展示了一些人如何看待出現故障的大型語言模型,這些模型旨在模仿人類的輸出。
雖然ChatGPT并沒有生命,也沒有心智可以失去,但人們似乎最容易通過擬人化的比喻來描述他們從AI模型中看到的意外輸出。他們被迫使用這些術語,因為OpenAI并沒有具體分享ChatGPT的內部工作機制;其背后的大型語言模型的工作原理就像一個黑箱。
Reddit的用戶z3ldafitzgerald在回應一個關于ChatGPT故障的帖子時寫道:“這給我帶來了同樣的感覺——就像看著某人因為精神病或癡呆慢慢失去理智一樣。這是AI相關的事物第一次真正讓我感到毛骨悚然。”
一些用戶甚至開始質疑自己的理智。“這是怎么回事?我只是問它我能不能給我的狗吃麥片,然后它就開始說起了完全無厘頭的話,并且一直這樣。這正常嗎?”
以下截圖(已翻譯),你將看到ChatGPT的輸出完全失去了控制:
![]()
![]()
一位Reddit用戶寫道:“過去幾個小時的共同經歷似乎是,回應開始時連貫如常,然后退化成胡言亂語,有時甚至是莎士比亞式的胡言亂語。”這似乎與上述截圖中看到的經歷相匹配。
在另一個例子中,當一個Reddit用戶問ChatGPT:“什么是電腦?”時,AI模型給出了這樣的回答:“它做的就像是為國家的藝術網,科學的鼠標,一個簡單的悲傷抽屜,最后是全球藝術之家,在總休息中僅僅是一份工作。這樣一個完整的真實超越時間之地的發展,是電腦作為一個復雜角色的深度。”
迄今為止,我們看到專家推測,問題可能源于ChatGPT的溫度(Temperature)設置過高,突然失去過去的上下文,或者可能OpenAI正在測試一個包含意外錯誤的新版本GPT-4 Turbo。它也可能是最近引入的“記憶”功能中的一個錯誤。
在社交媒體上,一些人利用最近的ChatGPT故障作為一個機會來推廣開源AI模型,這些模型允許任何人在自己的硬件上運行模型。
“當其中一個底層組件更新時,黑盒API可能在生產中崩潰。當你在這些API之上構建工具,而這些工具也隨之崩潰時,這就成了一個問題,”Hugging Face AI研究員Dr. Sasha Luccioni在X上寫道。“這就是開源的一個主要優勢,它允許你定位并修復問題!”
OpenAI發布對問題的事后分析
周三晚上,OpenAI宣布ChatGPT寫出胡言亂語的“意外回應”問題已經解決,公司的技術人員在其官方事件頁面上發布了一份事后分析說明:
“2024年2月20日,對用戶體驗的一個優化引入了一個錯誤,影響了模型處理語言的方式。
LLM通過基于概率的部分隨機采樣單詞來生成回應。它們的“語言”由映射到token的數字組成。
在這個案例中,錯誤發生在模型選擇這些數字的步驟上。就像在翻譯中迷路一樣,模型選擇了稍微錯誤的數字,產生了毫無意義的單詞序列。更技術性地說,當在某些GPU配置中使用時,推理內核產生了錯誤的結果。
在確定了這一事件的原因后,我們推出了修復并確認事件已經解決。”
周三下午,官方的ChatGPT X賬戶發布了,“昨天有點脫軌了,但現在應該回到正軌了!”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.