
作者 | 陳振
來(lái)源 | 財(cái)經(jīng)八卦(ID:caijingbagua)
![]()
引言:我們都在同一張臉上打補(bǔ)丁,但補(bǔ)丁會(huì)變成陷阱。
這個(gè)時(shí)代的荒誕,總是從一句“我就試試”開(kāi)始。
最近,安徽一個(gè)女子閑來(lái)無(wú)事,想“測(cè)試”一下丈夫的反應(yīng)。她用AI整出一張逼真的照片——家里多了個(gè)陌生的流浪漢,坐在客廳里,表情陰郁、光影真實(shí),乍一看和真的一模一樣。她發(fā)給丈夫,本想看看他慌不慌。
![]()
結(jié)果——慌的不是丈夫,是整個(gè)派出所。男人直接報(bào)警求助,警車(chē)嗷嗷趕到家門(mén)口,最后發(fā)現(xiàn)所謂“流浪漢”,只存在于照片里。
![]()
這場(chǎng)從客廳到派出所的烏龍劇,一夜之間沖上視頻號(hào)熱搜。有人笑著評(píng)論“夫妻信任危機(jī)”,也有人冷靜指出:“你以為是玩笑,下次可能是詐騙。”
![]()
更離譜的是,這種事已經(jīng)不是第一次。
有男人偽造“女兒被拐”的視頻博取流量,被拘;有騙子用“換臉+擬音”騙走公司幾百萬(wàn);有女孩發(fā)現(xiàn)自己“出演了”根本沒(méi)拍過(guò)的不雅視頻;甚至還有人做出“假火災(zāi)現(xiàn)場(chǎng)”“假求救直播”,專(zhuān)門(mén)騙同情。
![]()
我們正活在一個(gè)真假難辨的時(shí)代。信息像洪水一樣涌來(lái),但真相越來(lái)越貴。
![]()
一個(gè)按鈕,就能生成一場(chǎng)“災(zāi)難”;一張圖,就能掀起一場(chǎng)恐慌。
沒(méi)人能預(yù)料,下一次,假象會(huì)砸到誰(shuí)頭上。
![]()
造假成本一塊錢(qián)
信任代價(jià)是整個(gè)社會(huì)
這年頭,真相越來(lái)越貴,假貨越來(lái)越便宜。
過(guò)去造謠要成本,要人演戲、要剪視頻、要擺場(chǎng)景。現(xiàn)在不用了,只要上傳一張臉、點(diǎn)兩下按鈕,就能在幾十秒內(nèi)生成“你從沒(méi)做過(guò)的事”。
![]()
更離譜的是,這種服務(wù)在一些平臺(tái)上打擦邊球,賣(mài)價(jià)低至一元錢(qián)。是的,一塊錢(qián),比一瓶礦泉水還便宜。有平臺(tái)明碼標(biāo)價(jià):換臉:0.8元/秒;合成語(yǔ)音:1元/秒;“安裝包”:19.9元開(kāi)通隨便玩。
![]()
于是,造假開(kāi)始“平民化”。
明星被P上假視頻;老板被合成假語(yǔ)音;普通人也可能被拿去拼成“熱點(diǎn)素材”。有網(wǎng)友曬出教程:“輸入照片、選場(chǎng)景、換臉。”
![]()
所以,這門(mén)生意的本質(zhì)是——“造假簡(jiǎn)單化”。以前造謠需要專(zhuān)業(yè),現(xiàn)在人人都能動(dòng)手。
曾經(jīng)以為AI是還沒(méi)成熟的科技玩笑,如今對(duì)方可能已經(jīng)拿它做了生意。有人靠造虛假八卦號(hào)賺點(diǎn)擊,有人靠偽造受害視頻博同情,還有人更狠,直接拿換臉視頻敲詐勒索。
“新科技”興起了一堆暴發(fā)戶(hù),可被害者的命運(yùn)卻是無(wú)處申冤。
更夸張的是,假事件傳播速度遠(yuǎn)超真相傳播速度。你澄清十次,人家轉(zhuǎn)發(fā)一次“真的假的”,就夠讓真相埋了。
![]()
一個(gè)小玩笑能驚動(dòng)派出所,一場(chǎng)謠言能引爆一座城市。可最扎心的原因不過(guò)是——成本太低。
惡意的起點(diǎn)只是一塊錢(qián),而被破壞的是別人半生的信任。這不是科技帶來(lái)的魔法,這是人心滑向的深淵。
當(dāng)“真”成了奢侈品,謊言的成本幾乎為零。這才是比“用假流浪漢騙老公”更值得警惕的事。
![]()
![]()
技術(shù)異化的時(shí)代
從“工具人”到“被工具”
本來(lái),這些AI技術(shù)的初衷很單純——讓人們更方便創(chuàng)作、更高效辦公、更輕松表達(dá)、更溫情表達(dá)愛(ài)。
![]()
但如今,它正在悄悄反噬創(chuàng)造它的人。
一開(kāi)始,人們把它當(dāng)玩具。有人拿來(lái)整蠱、娛樂(lè)、試探情感,這都還不算大事。
![]()
可當(dāng)“玩笑”多了,就不再是玩笑。比如那位安徽女子,她或許只是想逗丈夫,卻沒(méi)意識(shí)到——在這個(gè)真假混亂的時(shí)代,一個(gè)假圖,可能比真相更快地觸發(fā)社會(huì)反應(yīng)。
警察、鄰居、媒體,全都卷入其中,最后變成一場(chǎng)全網(wǎng)的笑話。
類(lèi)似的事頻繁發(fā)生,今年六月,北京海淀查處了一起全國(guó)首例濫用AI技術(shù)生成的“假名人代言案”。
![]()
一家食品公司,把央視知名主持人李梓萌的視頻剪開(kāi)重組,塞進(jìn)自編口播:“我每天都吃這款深海魚(yú)油,頭暈手麻都好了。”
![]()
畫(huà)面清晰、語(yǔ)音自然、語(yǔ)氣、真誠(chéng),足以讓中老年觀眾信以為真。短短幾天,視頻播放量超過(guò)萬(wàn)。
最終這家公司被查封,主持人方面也憤怒聲明:那不是本人說(shuō)的。
故事聽(tīng)起來(lái)像段子,但現(xiàn)實(shí)遠(yuǎn)比段子狠。
因?yàn)槟嵌我曨l用的所謂“換臉”技術(shù)成本不到十元,甚至只要簡(jiǎn)單地輸入人物照片、上傳幾秒原聲,就能生成一段以假亂真的“代言視頻”。
![]()
過(guò)去騙子要請(qǐng)演員、寫(xiě)劇本、錄視頻;現(xiàn)在一個(gè)人在家敲幾下鍵盤(pán),就能偽造一個(gè)你最信任的“官方形象”。
![]()
這便是異化的可怕之處:技術(shù)開(kāi)始支配人的行為。
你想表達(dá)愛(ài),它卻放大猜疑;你想博人一笑,它卻制造恐慌;你以為掌控它,結(jié)果自己成了它的素材庫(kù)。
有意思的是,人類(lèi)的恐懼往往姍姍來(lái)遲。
![]()
之前,假照片第一次出現(xiàn)在朋友圈,人們驚嘆“太逼真了”;而現(xiàn)在,假語(yǔ)音第一次騙走存款,人們才開(kāi)始后悔“太相信了”;當(dāng)假視頻第一次毀掉一個(gè)女孩的名譽(yù),人們才終于明白——我們真的需要防護(hù)。
技術(shù)沒(méi)有錯(cuò),但人有弱點(diǎn)。它放大了人性的好奇、貪婪、窺私與報(bào)復(fù)。
![]()
而當(dāng)這種“低門(mén)檻魔法”落入無(wú)底線之手,現(xiàn)實(shí)就變成了一場(chǎng)大型“真·整蠱秀”。
![]()
造謠的速度
已經(jīng)超過(guò)真相的反應(yīng)力
在QQ爆火的年代,網(wǎng)絡(luò)謠言靠文字;而在自媒體泛濫的年代,網(wǎng)絡(luò)謠言靠影像。
有研究者做過(guò)實(shí)驗(yàn):同一條假消息,用AI生成圖片、視頻傳播,比其他口頭語(yǔ)言、文字謠言的轉(zhuǎn)發(fā)速度還要快。因?yàn)橐曨l太逼真了,甚至連新聞機(jī)構(gòu)都一度信以為真。
![]()
人類(lèi)大腦天生信任視覺(jué),“看見(jiàn)”幾乎等于“相信”。于是,當(dāng)影像開(kāi)始說(shuō)謊,信任也開(kāi)始崩塌。
![]()
人們開(kāi)始懷疑視頻證據(jù),懷疑明星道歉,甚至懷疑身邊人。“這段錄音是真的嗎?”、“他真的說(shuō)過(guò)這話嗎?”、“那真的是她本人拍的嗎?”這些原本屬于偵探小說(shuō)的問(wèn)題,已經(jīng)進(jìn)入日常對(duì)話。
而當(dāng)懷疑成為常態(tài),社會(huì)也變得疲憊。
![]()
值得一提的是,AI換臉的第一個(gè)明顯受害群體,是女性。被換臉的不雅視頻不再只是個(gè)別侵害,而是成長(zhǎng)為一條灰色產(chǎn)業(yè)鏈:把某名博主、某個(gè)普通女性按粉絲量級(jí)分級(jí)定價(jià),輸出“私人訂制”色情視頻,收會(huì)員費(fèi)、賣(mài)下載權(quán)限、開(kāi)打賞群。
![]()
受害者不僅失去名譽(yù),還要承受電話騷擾、人肉騷擾、職業(yè)影響甚至生命風(fēng)險(xiǎn)。
這類(lèi)“黃謠產(chǎn)業(yè)”有兩個(gè)惡劣特點(diǎn):“可復(fù)制可規(guī)模化”——只要有一張清晰臉盤(pán),可能生成無(wú)數(shù)版本;“按需定制”——買(mǎi)家可以提出臺(tái)詞、場(chǎng)景、甚至“私人劇情”。
當(dāng)羞恥被商品化時(shí),受害者的權(quán)利被系統(tǒng)性侵蝕:不是一次被侵犯,而是被無(wú)限次“再利用”。
一方面,我們害怕被騙,于是對(duì)任何“真相”都保持懷疑;另一方面,我們又太容易被刺激的影像打動(dòng),于是仍舊會(huì)被騙。
而當(dāng)所有人都開(kāi)始懷疑,真正的受害者反而更難發(fā)聲。
![]()
造謠者一句“開(kāi)玩笑的”,輕飄飄;但被害人要花幾個(gè)月、甚至幾年去澄清、起訴、恢復(fù)。
科技帶來(lái)了速度,但也削弱了真相的耐心。
這就是最悲哀的地方——我們活在最智能的時(shí)代,卻變成最不敢信的時(shí)代。我們不再相信“真”,卻被“假”操控。
![]()
監(jiān)管在追
公眾得學(xué)會(huì)“帶腦子”生活了
AI從來(lái)都不是原罪,濫用才是。
就像刀子本來(lái)是切菜的,現(xiàn)在卻有人拿它去“拍小眾引流視頻”;AI本來(lái)是幫人創(chuàng)作、剪片、修圖的,如今卻被用來(lái)騙人、造謠、炒流量。
![]()
其實(shí),相關(guān)部門(mén)早就注意到這股“造假風(fēng)”。
今年以來(lái),“清朗專(zhuān)項(xiàng)行動(dòng)”已經(jīng)啟動(dòng),重點(diǎn)整治偽造人像、合成色情、虛假信息傳播等行為。各大平臺(tái)也推出了“AI生成內(nèi)容識(shí)別系統(tǒng)”,并計(jì)劃強(qiáng)制標(biāo)注AI作品來(lái)源。
![]()
但這些措施就像修水壩——上游的水越來(lái)越多,下游的人游得越來(lái)越累。
技術(shù)在瘋長(zhǎng),監(jiān)管在補(bǔ)課,而用戶(hù),還在“哈哈哈,好玩”地轉(zhuǎn)發(fā)。
法律其實(shí)已經(jīng)給出了答案。《治安管理處罰法》規(guī)定,編造謊報(bào)警情可拘留罰款;刑法中的“編造、故意傳播虛假信息罪”可判三到七年。
![]()
可現(xiàn)實(shí)中,大多數(shù)人并非故意違法,只是沒(méi)意識(shí)到:“我以為是玩笑”,法律并不覺(jué)得好笑。歸根結(jié)底,最有效的防線,是人自己。
![]()
——看到“驚天大瓜”,先別信;
——遇到“哭著求助”的AI語(yǔ)音,先核實(shí);
——想“用AI逗一下對(duì)象”,先想想值不值。
技術(shù)越聰明,人就越要有腦子。
最重要的是,不要做那個(gè)“傳播起點(diǎn)”的人。別為了圖一樂(lè)、賺點(diǎn)贊、秀智商,就把假消息傳下去。
一次點(diǎn)擊,也許就是一場(chǎng)恐慌的導(dǎo)火線。
![]()
我們正在進(jìn)入一個(gè)“真假共生”的時(shí)代。
![]()
技術(shù)可以造出最完美的假象,也可以修復(fù)最真實(shí)的真相。關(guān)鍵不在于技術(shù),而在于人。
當(dāng)妻子用生成圖“測(cè)試”丈夫,當(dāng)詐騙犯用換臉騙走幾百萬(wàn),當(dāng)黃謠視頻毀掉無(wú)辜者的人生——這一切背后都在說(shuō)明:我們太容易相信了,也太容易利用信任去試探別人。
AI并不可怕,可怕的是人心的浮躁。
![]()
當(dāng)我們開(kāi)始拿謊言當(dāng)玩笑、拿虛構(gòu)當(dāng)手段、拿技術(shù)當(dāng)掩護(hù),這個(gè)時(shí)代最昂貴的東西,不是算力,而是信任。
![]()
或許未來(lái)的生活,會(huì)越來(lái)越“真假難辨”。
那就更需要我們?cè)邳c(diǎn)“生成”的時(shí)候,想一想:——這張臉,這段話,這個(gè)視頻,真的該存在嗎?
世界可以被偽造,但人,得保持清醒。技術(shù)的盡頭,不是智能,而是良知。
對(duì)此,您怎么看?歡迎在評(píng)論區(qū)留言討論,發(fā)表您的意見(jiàn)或者看法,謝謝。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.