
2025年無疑是人工智能迅猛發展的一年,但這給人們帶來的并不都是益處。美國專欄作家安娜莉·紐伊茨(Annalee Newitz)在《新科學家》刊文指出,人工智能生成的內容并不都是真實可靠的,若不采取措施遏制,我們的信息流將被人工智能生成的“泔水”淹沒。
原文 :《 <新科學家> :警惕人工智能生成的低質內容污染》
編譯 |李彥文
圖片 |網絡
2025年是人工智能發展史上的飛躍之年,但也被人們批評為“泔水之年”(year of slop)。“泔水”是一個流行語,指的是人工智能生成的漏洞百出、光怪陸離的內容,這些內容幾乎已經腐蝕了互聯網上的每個平臺,也在腐蝕我們的思想。
過去的幾年里,人工智能領域已經積累了足夠多的“泔水”,現在,科學家們可以測量其對人們的影響了。麻省理工學院的研究人員發現,使用大型語言模型(LLM,比如ChatGPT背后的語言模型)來寫文章的人,其大腦活動要比不使用的人少得多。此外,聊天機器人也會對我們的心理健康產生潛在的不良影響。有報道稱,某些聊天機器人會鼓勵人們相信自己的幻想或陰謀論,并可能誘導自殘,從而引發或加重精神疾病。
![]()
深度造假也已成為常態,使得網上內容的真實性無法被核實。微軟的一項研究顯示,人們只能在62%的情況下識別出人工智能生成的視頻。現在,利用人工智能生成足以亂真的視頻變得輕而易舉。OpenAI推出了應用程序Sora,這個文生視頻大模型幾乎完全由人工智能生成內容,只有一處例外——它會掃描用戶面部信息,將真人形象嵌入其生成的虛構場景中。針對這一問題,OpenAI的創始人薩姆·奧爾特曼(Sam Altman)只是輕描淡寫地回答,他允許人們利用他本人的形象進行《斯基比迪馬桶人》(Skibidi Toilet)風格的視頻制作,由此對可能產生的爭議進行輕松化解。
人工智能生成的“泔水”不僅會給我們的生活與工作造成影響,而且會對我們的歷史造成損害。我們將事物付諸文字或影像記錄的重要原因之一,正是想要留下特定時代的人類活動記錄。當我寫作時,我希望為未來的人創造記錄,讓五千年后的人們能窺見我們真實的面貌,包括所有的混亂與不完美。但現在,當撰寫考古學相關書籍時,我常常擔憂未來的歷史學家在回顧這個時代的媒體資料時,會觸碰到內容中的“污泥層”——那些由人工智能生成的、光鮮卻充滿謊言的信息。
人工智能聊天機器人只會反芻沒有意義的話,它可以生成內容,但無法取代人們的真實記憶。從歷史視角來看,讓由人工智能生成的內容充斥信息流,在某種程度上比鼓動性宣傳更可怕。至少,鼓動性宣傳是由人類懷著特定目的進行的,能揭示社會存在的政治生態與問題癥結。而“泔水”正在將我們從自身的歷史記錄中抹除,其背后的意圖比人為宣傳更難以捉摸。
![]()
當下,由“Z世代”(1990年代末至2010年代初出生的人)掀起的關于“6-7”的熱潮滲入主流文化,“6-7”也被Dictionary.com評為2025年度詞匯。這或許是人們對文化“泔水化”的一種抵抗手段——創造毫無意義的詞語,頗具黑色幽默色彩。當你對某個問題沒有確切答案時,甚至是在沒有任何理由的情況下,你都可以說“6-7”。例如,未來會怎樣?6-7。人工智能“泔水”會對藝術產生怎樣的影響?6-7。我們將如何在未來極具不確定性的世界中穿行?6-7。
我很想看看人工智能公司能否根據“6-7”生成內容,但它們做不到,因為人類將永遠領先于“泔水”一步,不斷創造出只有人類才能真正欣賞的新形式。這種專屬于人與人之間的默契,或許是我們得以在人工智能時代,依然保留“人之為人”特質的一個主要原因。
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1984期第7版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:程鑫云

《社會科學報》2026年征訂
點擊下方圖片網上訂報↓↓↓

![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.