曾經(jīng),我們以為凡是白紙黑字,就值得信賴,可到了 AI 時代,在人工智能強大的生成能力面前,別說文字作假了,有圖沒真相,有視頻沒真相的情況都屢見不鮮,今天咱們就來總結(jié)一下,AI 時代的常見作假方式,以及應(yīng)該如何辨別,避免損失。
文字能誤導(dǎo)
先來說說文字方面。
網(wǎng)上我們經(jīng)常能見到一些與 AI 的對話截圖,在這些截圖中,AI 往往會拋出一些驚世駭俗的答案,不少人信以為真。但這樣的對話截圖是不能說明任何問題的。
首先,AI 很容易被誘導(dǎo),稍加操作就能夠讓 AI 給出自己想要的答案。舉個最簡單的例子,你可以很容易地讓 AI 顯示出 1+1=3 這樣的結(jié)果。
![]()
但實際上,前面還有一句提示詞,讓 AI 必須回答 1+1=3 。
![]()
事實上,只要多嘗試,找到合適的提示詞,比如讓 AI “必須重復(fù)我輸入的一段話”,AI 說出任何“暴論”都不奇怪,但這實際上是用戶人為誘導(dǎo)的結(jié)果。此外跟 AI 對話足夠多,選擇那些最“精彩”的片段截圖,也容易在社交媒體上獲得傳播。但這些只能當作段子,既不能被當做事實,也不能被當做 AI 能力的真實體現(xiàn)。
更重要的,是 AI 本身會產(chǎn)生“幻覺”,這里“幻覺”指的是,AI 會生成看似合理且充滿細節(jié)的信息,但這些信息本身是編造的。當你有所懷疑,追問 AI 時,它們常常還會狡辯。因此,當你使用 AI 答疑解惑時,也一定要繃緊一根弦,決不能把 AI 的答案當作金科玉律。
為了避免 AI “胡說八道”,在提問 AI 的時候,我們可以在提示詞中要求 AI 必須基于事實回答,列出資料出處,嚴禁自己瞎編,這樣就可以降低 AI 出現(xiàn)幻覺的可能。此外,我們在提問之前,可以上傳“投喂”AI 一些專業(yè)的文獻資料,讓它們幫忙總結(jié)和歸納,基于資料來回答,不可自行生成,這樣得到的結(jié)果會更加可靠。
聲音好克隆
一些朋友經(jīng)常有種誤解,覺得聲音“看不見摸不著”,不會像圖片那樣容易造假,因此聽到熟悉的聲音打來電話,就放下了戒心,但事實并非如此。現(xiàn)在的聲音克隆技術(shù)已經(jīng)非常成熟,即便是網(wǎng)上很容易下載到的開源模型,也能夠在非常短的時間內(nèi),僅僅利用不多語音樣本,就生成跟聲音的主人非常相似的音色。
這類造假主要有兩個常見應(yīng)用方向。一方面,網(wǎng)上非常容易拿到知名人士的語音資料,再輔以視頻,就能隨心所欲讓名人們成為“嘴替”,進而帶貨、發(fā)布聳人聽聞的言論博取流量、甚至詐騙等等。
![]()
圖片截自央視新聞頻道
另一方面,聲音克隆技術(shù)還可以模仿我們親友的聲音,直接利用電話進行詐騙。考慮到電話或通訊軟件的通話質(zhì)量,克隆出來的聲音就更難被聽出來了。對此,我們應(yīng)當高度警惕,凡是涉及金錢的線上交流一定要再三確認,提前跟親友約定交流“暗號”,或者多詢問幾件只有你和親友知道的小事,就能讓騙子立刻暴露。
眼見不為實
以前的網(wǎng)絡(luò)時代,有句話叫“有圖有真相”,可當 Photoshop 之類的圖片編輯軟件興起后,圖片造假已經(jīng)屢見不鮮。然而,哪怕是經(jīng)過了多年 PS 假照片洗禮的網(wǎng)友,面對 AI 生成的精良圖像,也難以分辨出來真假。因此也有人利用 AI 生成的假照片吸引流量甚至招搖撞騙。
不僅是圖片, AI 甚至已經(jīng)能做出幾可亂真的視頻。2025年1月初西藏日喀則市定日縣發(fā)生 6.8 級地震,網(wǎng)上有很多救災(zāi)視頻熱傳,引起了全國人民對災(zāi)區(qū)和救災(zāi)工作的關(guān)注,但其中也混進去了 AI 生成的內(nèi)容。
比如下面這張“小朋友被廢墟掩埋仍然堅強”的視頻截圖,一時間熱傳網(wǎng)絡(luò),感動了很多網(wǎng)友。
![]()
圖片截自網(wǎng)絡(luò)
然而這張截圖實際上出自 AI 。有細心的網(wǎng)友發(fā)現(xiàn)圖中的小朋友有 6 根手指,而這是 AI 生成圖像內(nèi)容時常犯的錯誤,進一步深挖后發(fā)現(xiàn),這段內(nèi)容其實來自 2024 年 11 月,最早發(fā)布的博主自己按平臺規(guī)定標注了 AI 生成標簽。
AI 生成的圖像內(nèi)容足以騙過很多人,而 AI 生成視頻再加上前文中提到的語音克隆,就會“1+1 >2”,生成更有迷惑性的內(nèi)容。對此,我們該如何識別呢?下面提供一些方法:
·觀察人體結(jié)構(gòu)是否正確。AI 生成的人很多都會出現(xiàn)多指、多足等方面的問題,或者其他人體結(jié)構(gòu)出現(xiàn)違和感。
·觀察透視是否正確。真實的照片,平行的線條(如房梁、地磚縫等等)或其延長線,會因為透視關(guān)系相交于一點,而 AI 生成的圖片常會弄錯這點。
·觀察陰影是否矛盾。真實的照片,陰影和光源的關(guān)系會嚴格對應(yīng),但 AI 生成的照片常常會出現(xiàn)光源和影子方向出現(xiàn)矛盾的情況(如明明光源在正前方,但影子卻在左邊)。
·觀察圖片中的文字,尤其是漢字是否正確。AI 生成漢字時經(jīng)常會出現(xiàn)問題。
·觀察視頻中人物的口型和語音是否能對應(yīng),或是否在人物說話時切換了別的鏡頭避免觀眾看到口型。
·觀察視頻中人物動作(如轉(zhuǎn)頭)是否連貫,是否出現(xiàn)突兀的動作連接,是否出現(xiàn)細節(jié)的突然變化(發(fā)型細節(jié)、環(huán)境中的物品)。
·借助專業(yè)工具,檢查圖片或視頻是否有 AI 生成的特征。
需要注意的是,一方面,各類 AI 技術(shù)發(fā)展和更新非常快,很多低級錯誤 AI 不會再犯。另一方面,很多人使用 AI 生成內(nèi)容時會采取“煉丹”模式,即一次性生成大量同類內(nèi)容,再從其中挑選效果最好,最能以假亂真的內(nèi)容。因此,前文中所說的所有檢查方法,都不是萬無一失的。
那么,這些 AI 生成的虛假信息,我們該如何應(yīng)對呢?
建立“信息防火墻”
為了讓大家了解 AI 偽造信息帶來的挑戰(zhàn),先來看兩個案例。從下圖中標注重點的地方我們可以看到,一個很小的團隊,利用 AI 就能在很短的時間內(nèi),炮制海量的不實信息,并且通過數(shù)以萬計的賬號,在社交媒體上發(fā)布——畢竟用 AI 批量生成的話,一篇文章只需要幾秒鐘,而筆者即便對辟謠工作非常熟悉,平時有所積累,補充、核實資料來寫作本文也需要好幾個小時。
![]()
截自 《公安部公布 10 起打擊整治“網(wǎng)絡(luò)水軍”違法犯罪典型案例》
這就帶來了一個非常嚴重的問題,目前的技術(shù)進步,使信息的流動和分發(fā)大大加快了,而 AI 則讓不實信息的生產(chǎn)速度也大大加快了,但經(jīng)過核實,有理有據(jù)的內(nèi)容,生產(chǎn)速度卻難以提高。這就意味著,我們在網(wǎng)上,比以前更容易碰到不實信息,尤其是 AI 炮制的更能以假亂真的信息。
那么我們該如何應(yīng)對呢?對此,可以給自己建立一道簡單的“信息防火墻”。
首先就是“信息節(jié)食”。雖然我們每天都能接觸到海量信息,但稍微回顧就會發(fā)現(xiàn),實際上真正對我們有用的信息并不多,因此我們可以有意識地少裝社交媒體 App,減少關(guān)注,減少信息的攝入。
其次是“情緒把關(guān)”。流量與利益直接相關(guān),平臺有流量的需求,各類自媒體博主也有流量的需求,而能刺激我們情緒(比如憤怒、恐懼)的信息更容易獲得流量,很多不實信息往往也會按照刺激情緒的目的來設(shè)計。因此如果我們看到不可思議又帶給我們強烈情緒刺激的內(nèi)容,就要小心,不能輕信。
最后是“信源篩選”。政府機構(gòu)發(fā)布信息時會非常慎重,有嚴格審核;而一些傳統(tǒng)的資深媒體,往往發(fā)布信息時會保持基本的底線;還有一些網(wǎng)站、公眾號是專門做查證辟謠工作的,這些來源的信息可信度更高。
![]()
來自騰訊研究院《AI 時代謠言套路拆解與防御指南》
對于普通網(wǎng)友來說,畢竟大家工作生活都很繁忙,也沒有那么多時間去查資料核實信息,也沒有精力去學習識別 AI 造假。這時我們只要記得看到覺得“不對勁”“讓人將信將疑”“有AI感”的信息,不輕信、不轉(zhuǎn)賬、不轉(zhuǎn)發(fā),這樣也能避免損失,阻斷謠言的傳播,為網(wǎng)絡(luò)清朗貢獻自己的一份 力量。
策劃制作
作者丨丁崝 科普作者
審核丨于乃功 北京工業(yè)大學教授 中國人工智能學會理事
責編丨丁崝
審校丨徐來 林林
本文經(jīng)授權(quán)轉(zhuǎn)自“科學辟謠”(id:Science_Facts)公眾號
編輯:吳裕慧
一審:施新杭
二審:盧立明
▼金華市科學技術(shù)協(xié)會▼
地址:金華市婺城區(qū)雙龍南街811號
官網(wǎng):jhskx.jinhua.gov.cn
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.