近日,西藏日喀則市發生6.8級地震,牽動人心。然而,一些網民利用AI技術生成與地震相關的虛假圖片,誤導網友。特別是一張“被壓廢墟下的小男孩”圖片在多個社交平臺傳播,盡管平臺標明為“疑似AI生成”,許多網友仍被誤導,紛紛關心男孩的安危。
這類AI生成的圖片危害究竟有多大,我從幾個角度來說說這件事:
技術實現角度
從技術角度上來講,近幾年深度學習、GAN(生成對抗網絡)以及擴散模型(Diffusion Model)等生成式 AI 技術迅速成熟,生成圖像的真實度不斷提升。
早期 AI 合成圖像常常在光影、紋理上存在明顯破綻,容易被發現;但當前的高質量生成圖像對普通公眾而言,僅憑肉眼常常難以快速分辨真偽。
特別是隨著 Midjourney、Stable Diffusion 等開源或商用工具的普及,使用者只需輸入文字描述就能自動生成極具逼真感的圖片。移動端應用也進一步降低了操作難度,讓普通用戶也可輕易創作并大量發布各類虛實難辨的圖像內容。
你看我用ChatGPT的Dalle,幾秒鐘就可以出一張圖片。
![]()
需要注意的是,即使圖片有很多漏洞,但是在這種情緒裹挾下,一般人很難注意到這些點。就像被傳播的那張圖片一樣,小孩有六根手指,這是明顯的AI創作的圖片。但一般人真的不太會注意到這些細節。
信息傳播角度
人的注意力和一天中除了吃喝拉撒之外的有效時間是類似的,都是有限的,關注A信息的時候就會漏看B信息,如果恰好A是偽造的,而B是重要信息,那這個時候就造成了注意力的流失。
特別是在社交媒體平臺上,用戶每天都面對海量信息,能夠停留、思考與分析的時間非常有限。
災難信息觸發了用戶的同情心或焦慮情緒,更易激發快速轉發、點贊或評論,形成裂變式傳播。
大多數人看到令人揪心的圖片時,第一反應是“該如何幫助”或“表達悲痛”,很少會立刻想去辨別圖片真偽。另外在平臺的推薦算法驅動下,一張高互動的“悲情圖片”更容易被繼續推送給其他用戶,強化了虛假信息的擴散。
部分自媒體賬號為了獲得流量或熱度,會對圖片或文字進行再包裝,放大了圖像的情感沖擊力,使得真偽信息混雜更加嚴重。這種二次、三次傳播過程中,信息源頭往往被弱化或丟失,公眾更難追溯原始出處。
它的危害其實初期并不會有實質性的危害,比如虛假災情圖片可能造成公眾和官方對救援資源配置與輿論引導的誤判,甚至引發無端猜測或恐慌,干擾真實救災工作的進行。
但如果有真實受災者,他們的情況反而被虛假事件搶奪關注度,或是混淆了真正需要幫助的人和謠言制造者,真正的災害救援信息也容易被虛假內容淹沒。
監管及預防角度
這里面的門道就多了,從技術角度,可以用數字水印甚至區塊鏈的方法給每個生成的作品打上標簽,以便迅速定位到始作俑者。
從平臺角度,這種關于災情的帖子也應該更加注意審核,特別是對AI生成的內容,至少得打上疑似的標簽。
從用戶角度,也應該在轉發之前自我審核一遍,其實很多時候就是疏于審核,所以才會忽略非常多的漏洞。
其實算是一種合力,才讓這張圖片得以錯誤地傳播了出去。
信息始終會有假信息,但在災難面前,利用人們的同情心傳播這些虛假內容必定是最惡劣的。我們在貢獻自己愛心的同時一定要認真辨別,警惕此類虛假信息。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.