![]()
去年8月,《衛報》發了一篇書評。今年1月,《紐約時報》發了另一篇。兩本書評講的是同一本小說,作者不同,出版社不同,但有幾段話讀起來像雙胞胎。
讀者發現了。報社調查了。結果讓人無語:寫《紐約時報》這篇的,是個出過6本小說的資深作家,他承認用了AI工具"協助"寫作,卻沒發現AI直接幫他搬運了競爭對手的稿子。
這不是AI第一次闖禍,但可能是第一次以如此尷尬的方式——抄作業抄到了隔壁班老師眼皮底下。
事件還原:一條讀者留言引發的調查
事情始于一位眼尖的讀者。他在讀完《紐約時報》1月份的書評后,覺得某些描述似曾相識。翻回去一查,《衛報》去年8月就有過幾乎一樣的段落。
兩篇文章都在評法國作家Jean-Baptiste Andrea的小說《Watching Over Her》。問題出在一段配角描寫上。
《衛報》原文Christobel Kent寫道:"But the novel is also rich in smaller characters, from the lazy Machiavellian Stefano to hardworking Vittorio, whose otherworldly twin brother Emmanuele is prone to speaking in tongues and dressing up in ragtag begged-and-borrowed uniforms…"
《紐約時報》Alex Preston的版本:"The novel is also rich in secondary characters, from the lazy, Machiavellian Stefano to Mimo's childhood friend and fellow craftsman Vittorio and Vittorio's otherworldly twin, Emanuele, who speaks in tongues and dresses in scavenged uniforms"
人物名字一樣,形容詞換了近義詞,句子結構像復制粘貼后做了同義詞替換。這種"洗稿"痕跡,傳統人工操作反而不會這么明顯——人知道要躲,AI只知道"生成流暢的文本"。
當事人回應:"巨大的尷尬"
Preston在給《衛報》的聲明里說,他"hugely embarrassed",承認"made a serious mistake"。
調查結束后,《紐約時報》在3月30日加了編輯注,確認Preston此前為報社寫的其他書評沒問題,但這次確實用了AI工具,且沒發現AI產出的內容與《衛報》文章雷同。
報社發言人對The Wrap的表態很硬:"For staff journalists and freelance writers alike, reliance on AI and inclusion of unattributed work by another writer is a serious violation of The Times's integrity and fundamental journalistic standards."
翻譯成人話:不管你是正式員工還是 freelancer,用AI還抄別人,都是踩紅線。Preston的合作關系就此終止。
資深作家為何翻車?
這件事的諷刺之處在于Preston的資歷。6本小說,常年給《紐約時報》《衛報》《金融時報》供稿,不是新手蹭流量,是正經靠寫字吃飯的人。
但恰恰是老手更容易栽在這種地方。新人寫稿戰戰兢兢,每個引用都標注;老手有路徑依賴,覺得"我就是快速生成個框架,再自己改改"。AI工具承諾的效率,對 deadline 壓力大的人來說,誘惑很難抵抗。
問題在于,生成式AI(Generative AI,基于概率預測下一個詞的技術)的"幻覺"不只是編造事實,還包括"合理但錯誤"的縫合——把訓練數據里的片段重新組裝,讀起來通順,來源卻混雜不清。
Preston說他"failed to spot the sections",意思是查重環節缺失。傳統編輯流程里,編輯會質疑"這段你從哪里來的";AI輔助寫作時,這個質疑環節被跳過了——作者和編輯都默認"這是他寫的"。
行業連鎖反應
《紐約時報》對AI的態度一直微妙。一方面,它正在起訴OpenAI和微軟,指控對方用其文章訓練模型,侵犯版權;另一方面,它自己也在內部探索AI工具的應用邊界。
這次事件給所有媒體劃了條實操紅線:你可以研究AI,但不能讓AI替你寫,更不能讓AI替你抄。
更深層的問題是,書評這種文體本身就在萎縮。報紙縮減文化版面,專職書評人減少,freelancer 接活更趕,單價更低。效率壓力之下,"用AI輔助"和"用AI代寫"的邊界,對個體來說越來越模糊。
Preston的個案被公開處理,有殺雞儆猴的意味。但真正的難題是:如果AI生成的內容越來越難以識別,編輯流程要怎么改?每篇稿子都過一遍查重軟件?還是干脆禁止所有AI輔助?
《紐約時報》選擇了最嚴厲的一種回應:零信任,直接切割。
接下來,其他媒體會跟嗎?以及,那些沒有被讀者發現的"相似段落",現在還在多少篇文章里躺著?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.