賽格特約作者 勞里
某超一線男星澳門豪賭輸光10億,西藏日喀則地震有人拍下廢墟下戴帽子的小男孩,好萊塢景區(qū)招牌被大火燒毀,上海退休教授在陽臺上搞核發(fā)電……這是近一年內大規(guī)模流傳的幾個謠言。
![]()
近期出現的部分謠言
自從有了AI,真相的傳統認知框架就變得支離破碎了。“真相不再以權威媒體、專家結論或唯一事實作為判定依據,而是被大量由AI生成的、看似合理的信息包圍,迫使每一個信息接收者都必須具備更強的辨別力和判斷力。”
為此,騰訊研究院日前宣布:世界正進入一個“概率真相”的時代。
所謂“概率真相”,是說由于AI技術的深度滲透,“信息的真假邊界正變得愈發(fā)模糊,純粹的真實與徹底的虛假不再是涇渭分明,更多信息呈現出真假交織的復雜面貌。”一段內容,或者以客觀事實為基底,卻在細節(jié)描述中摻雜主觀歪曲,或許有不少權威數據,但卻通過斷章取義制造誤導。
正所謂:假作真時真亦假,無為有處有還無。揭示這一真相的,是由騰訊研究院算法治理研究小組聯合騰訊新聞較真平臺撰寫的《擁抱概率真相——AI時代謠言套路拆解與防御指南》。值得一提的是,《指南》的終極建議是:置身混沌世界,我們的認知要升級。
![]()
![]()
智者能比AI更聰明嗎?
常言道:謠言止于智者。
但智者是什么人?在人群中占多大比例?謠言要跑多久才能撞上智者?智者要用多久才能拆穿謠言?可慮的是,謠言已經滿天飛了,作為真相攜帶者的智者還在穿鞋。更可慮的是,智者打得過AI嗎?
AI時代的謠言,和傳統時代的謠言長得一點也不像。也因此,傳統的破謠打法顯得力不從心。
最直觀的例證:“有圖有真相”的鑒別之法幾乎完全破產了,所謂“耳聽為虛,眼見為實”也不靠譜了,畢竟現在的AI太強大了,不但能生成假圖,還能生成假視頻,生成假音頻更不在話下。
![]()
部分網民發(fā)布AI制作的虛假冰雹圖片,并搭配上廣東多地最近下冰雹的文字。圖像形似當地普通人遭災的一線分享,更添臨場信任感知,激發(fā)觀者情緒,引起轉發(fā)擴散行為。
如此一來,圖片或視頻與真相的直線聯系就被切斷了。《指南》指出:深度合成、AI換臉等技術降低了虛假信息制作成本,模糊了人類生成內容與機器生成內容之間的界限。
由AI促生的謠言可分為兩類:一種是使用AI工具,生成虛構內容,以此作為素材散播謠言。;另一種是AI本身存在的“幻覺”現象,在使用者未充分校驗的情況下生成的信息。
前者是有意為之的虛假信息,后者是無意為之的錯誤信息。無論是虛假還是錯誤,都考驗著人們的辨識能力。若是沒有兩把刷子,就只能任由謠言刷屏,自己被騙了還幫著人家貢獻流量。
![]()
世界太亂,謠言不止
比如陽臺上搞核電這樣的謠言,在被拆穿后進行復盤,人們可能會啞然失笑,很有些“曾經滄海難為水”的感喟。其實這種“事后諸葛亮”很有必要,“前事不忘,后事之師”,起碼可以做到“不二過”,而認知的升級就是這樣銖積寸累實現的。
AI謠言不同于傳統謠言的地方在于:內容性質上為多模態(tài)(文本、圖像、音視頻齊飛);傳播機制上為多平臺矩陣批量發(fā)布;傳播速度與規(guī)模上為工業(yè)化生產、精準定位和高效分發(fā),傳播具有病毒性和爆發(fā)性;影響范圍上可能帶來系統性風險,諸如破壞國際關系、擾亂資本市場等。
最具挑戰(zhàn)性的當然還是高度仿真、驗證難度極大,需要專業(yè)技術手段,舉證維權成本高昂的謠言。
不過,AI謠言畢竟也是謠言,也有謠言的共性。正如《指南》所說:AI虛假信息看似兇猛,其關鍵依然是背后的“人”,即虛假信息生產者。對2023—2025年的“AI虛假信息”進行內容分析可以發(fā)現:
AI虛假信息雖然披上了新技術的外衣,但其本質依然是造謠者的“嘴替”,背后的行為動機、利益訴求和傳播規(guī)律,與傳統謠言有很多共通之處,無非謀財、嚇人和悅己,其中謀財就占了7成之多。
![]()
經濟利益是AI虛假信息傳播的首要目標。絕大多數的AI虛假信息都是用于獲取流量變現、廣告收益或其他直接經濟利益。
俗話說一個巴掌拍不響。造謠者想操控特定人群甚或整個世界,并不是其心想就能事成的。從傳播學上講,傳播者要實現其意圖,除了“有信心有能力”,也要信息接收者“配合”才能形成閉環(huán)。
雖然官方一直宣揚“不信謠,不傳謠”,但說不信就不信,很難,因為往往不信也信了。
客觀原因是,拆穿謠言是有知識門檻的,特別是那些貌似專業(yè)的謠言,又是數據又是術語的,甚至還間或來幾句洋文拉幾個洋人,若非撞在此中行家手上,即便不信也只是不信,卻無法說服別人不信。
這必待術業(yè)有專攻且熱心科普的靠譜專家“路見不平一聲吼”,震碎謠言如秋風掃落葉。因此,我們還是要相信專業(yè)人士,不能陷入“專業(yè)虛無主義”。
主觀原因是,造謠者和信謠者置身于某種共同的語境中,且有共同的認知心理結構,總是相信自己愿意相信的(類似于后真相的機理)。
平心而論,這個世界并不好,會不會好也難說。諸如貧富差距拉大、資源分配不公、國際關系惡化……總之不如意事十之八九,情緒極不穩(wěn)定,心態(tài)極不平衡,謠言正好乘虛而入,得其所哉,大呼“誰說不是”還來不及,哪里還去分辨什么真假?
這種認知心理結構需要改變,盡管很難。縱是花崗巖腦袋,也得設法鑿出一竅,讓健全的認知結構在其間安營扎寨。
![]()
AI時代,文盲標準變了
有識者說:文盲的本質其實是辨別是非能力低下,現在識字率乃至高等教育覆蓋范圍已經很大了,AI時代的文盲標準是不是要改一改了?這自然可備一說。
其實,重要的可能還不是文盲標準的與時俱進問題,而是養(yǎng)成一種“不輕信、不盲從”的知行習慣。于不疑處有疑,是做學問的信條,也當是“格物致知”之前的“誠意正心”。不是要懷疑一切,而是要“信而有征”。
![]()
有網民使用AI合成好萊塢標志性招牌遭山火損毀的圖片,利用“全球文化標志”損毀引發(fā)網民震驚與惋惜情緒,吸引關注。
《指南》說的好:我們可以從培養(yǎng)“概率思維”習慣做起,不再非黑即白地看待信息,而是主動思考其真實性;時刻警惕情緒誘導,避免被煽動性內容裹挾;實踐“慢信息”,不急于轉發(fā)未經驗證的內容;主動構建多元信息源,從不同渠道交叉驗證信息;學著負責任地分享與表達,讓每一次轉發(fā)都成為守護真實的行動。
這些看似微小的舉動,實則是守護真相的長期主義;唯有堅持,方能在“概率真相”的迷霧中照亮前行之路。
有必要多說一句:技術是中性的,技術向善還是向惡,取決于掌握技術的人。AI謠言對真實性的挑戰(zhàn)并非源于AI固有的生成能力,而是源于人類濫用這些工具制造和傳播錯誤信息或虛假信息的意圖。“以AI制AI”,雖不能攻必克、戰(zhàn)必果,卻是AI向善的應有之義。
技術面前,人不能“清靜無為”,而須握緊方向盤,如此才能行穩(wěn)致遠。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.