IT之家 1 月 25 日消息,如果要給房東寫一封措辭強硬的郵件,反映天花板漏水的問題,需要找個幫手把關,那么 ChatGPT 或許是個不錯的工具。但和所有同類競品一樣,ChatGPT 也存在諸多有據可查的缺陷:它不僅常常生成虛假信息,還自帶一種諂媚討好的語氣,極易讓用戶陷入嚴重的認知誤區。
![]()
換句話說,它絕非人們處理重要工作時可以依賴的工具,科隆大學植物科學教授馬塞爾?布赫就吃了大虧,才明白了這個道理。
IT之家注意到,布赫在《自然》雜志的一篇專欄中坦言,自從關閉了 ChatGPT 的“數據授權”功能后,他兩年來精心整理的學術成果,包括科研經費申請材料、論文修訂稿、課程講義和考試題目,全都“不翼而飛”了。
他當初關閉這項功能,是想驗證“即便不向 OpenAI 提供個人數據,自己是否仍能使用該模型的全部功能”。可令他崩潰的是,所有聊天記錄瞬間消失得無影無蹤。
“沒有任何預警提示,”布赫寫道,“也沒有撤銷選項,只留下一片空白的頁面。”
這篇專欄發布后,有網友質疑,布赫怎么能兩年來都不做本地備份?也有人怒不可遏,呼吁校方解雇他,理由是他在學術工作中過度依賴人工智能。
不過,也有一些人對他表示同情。海德堡大學教學協調員羅蘭?格羅姆斯在社交平臺上發文稱:“盡管馬塞爾?布赫的工作流程漏洞百出,還犯了個愚蠢的錯誤,但他敢于公開這段經歷,值得肯定。很多科研人員都覺得自己能識破所有陷阱,可事實上,每個人都可能因一時疏忽,遭遇這樣的麻煩。”
布赫也率先承認,ChatGPT 生成的內容“看似言之鑿鑿,實則有時漏洞百出”。他強調自己從未“將模型的可靠性等同于內容的真實性”,但他“信賴平臺工作區的連續性和表面穩定性”,每天都把 ChatGPT Plus 當作貼身助手使用。
生成式人工智能在科學界的應用,一直爭議不斷。據《大西洋月刊》報道,大量來源不明、由 AI 拼湊的劣質稿件正涌入各大科學期刊,讓同行評審淪為一場“災難”。更有甚者,一些專門發表 AI 垃圾稿件的虛假學術期刊應運而生,借機牟利。最終的結果就是:AI 生成的劣質內容,交由 AI 模型進行同行評審,這進一步加劇了對學術文獻的污染。
與此同時,科研人員經常收到通知,被告知自己的研究成果在新論文中被引用,但點進去后卻發現,相關引用內容純屬 AI 虛構。
需要明確的是,目前沒有任何證據表明,布赫曾試圖將 AI 生成的劣質內容塞給學生,或是發表不實的 AI 撰寫研究成果。
盡管如此,他的這段慘痛經歷,仍為所有人敲響了警鐘。
布赫在專欄中指責 OpenAI:在未能提供“基礎保護措施”以防止用戶數年心血毀于一旦的情況下,就貿然推出 ChatGPT Plus 付費訂閱服務。
OpenAI 在給《自然》雜志的一份聲明中回應稱,聊天記錄一旦刪除便“無法恢復”,并反駁了布赫“未收到任何提示”的說法,強調“用戶在永久刪除聊天記錄前,系統會彈出確認窗口”。該公司還“貼心”建議:“用戶在處理專業工作時,應做好個人數據備份。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.