今年春晚,AI也沒少做廣告,如今AI已經深入我們的生活了。
春節前后也是AI產品扎堆發布的時候,大家用AI新產品,發現AI視頻生成可太厲害了,換個臉分分鐘。
這就有可能出問題,近年來AI換臉危害已經很大了。
有些人要么出于惡意,要么為了牟利,用AI合成色情照片、視頻,對他人身心造成嚴重傷害,連帶著不小的財產損失。
比如去年廣州國際車展后,網上很快流傳一段視頻,視頻里的某品牌汽車前,一位綠裙女子做出低俗不雅的動作。
這樣的不雅視頻流傳開,會讓該車企和低俗掛鉤,品牌損失慘重。
于是車企迅速辟謠該視頻為“AI技術生成”,強調“從未邀請模特及演藝人員”,還報了警。
有法務部就是不一樣,證據收集、辟謠、報警一氣呵成,迅速查到了制作視頻的人并且行政拘留了。
但普通人沒有法務部,面對類似問題就非常棘手,尤其是現在AI換臉已經非常成熟,甚至能低成本批量生成不雅圖片或視頻。
以前沒有AI生成圖片或視頻,光靠人工PS或者合成視頻需要很高的技術水平,較長時間,修改痕跡也很重。
AI生成圖片或視頻剛出現的時候,也不太好用,需要多達50張多角度、高清晰度的照片,才能實現較為自然的視頻合成,但技術門檻已經大大降低,合成速度也加快了。
如今AI技術進一步發展,只需要20張左右的照片就可以實現AI換臉,很多人在公共平臺上的露臉照片可不止20張,這就讓AI換臉門檻進一步降低。
自己不會換也不要緊,花個十幾塊錢就能定制一部換臉視頻。
普通人面臨的,就有可能是多次低成本AI換臉造謠——十幾塊錢,就能讓任何人“有視頻有真相“地潑上亂搞的臟水。
更嚴重的是,AI換臉造黃謠還會被用在詐騙上。
如今騙子找到一個人二十多張照片非常容易,拿這些照片,用AI換臉生成一段黃色視頻,發給受害者。
![]()
受害者驚疑不定時,騙子就會威脅,不給錢就群發出去,讓受害者丟臉,受害者會害怕視頻傳播,向騙子轉賬。
轉賬一次,騙子不會滿足,也不會刪除視頻,反而過段時間接著敲詐受害者,美其名曰 “刪除費”、“手續費”。
與出于惡意污名化女性的AI造黃謠不同,這種合成AI黃片往往敲詐的是中老年男性。
中老年男性往往好面子,不熟悉新技術,又有錢,就容易被騙子用AI黃謠敲詐。
我相信我們的讀者朋友們潔身自愛,遇到這種造黃謠,不管是不是AI合成的,都不會恐慌,只要自己清白,就知道這些視頻都是假的。
不恐慌,就不會點擊騙子給出的鏈接,不加騙子好友,也不會轉賬,而是第一時間報警。
春節期間,大家也要注意節前騙子沖業績,說不定會用AI合成黃色視頻反復轟炸你的手機。
大家可千萬別上當。
參考資料:
“AI生成車展不雅視頻”事件的背后 https://mp.weixin.qq.com/s/QGVsPI74pDTtW_aA7U2tew?scene=1&click_id=1
不敢告訴子女!常州一六旬男子,突然收到自己的“不雅照” https://mp.weixin.qq.com/s/0Tsj3kySsaNRxOwlsb55kQ
阜陽有人收到合成不雅視頻勒索短信!此類情況需警惕! https://mp.weixin.qq.com/s/5RPixUy4kn4mikambFIM8A
警惕!女性面容被惡意嫁接色情視頻,幾元就能“定制” https://mp.weixin.qq.com/s/6qsm9kx5Z0ZYd0zjatjSgA
短劇賬號AI惡搞演員不雅照被封_新浪財經_新浪網 https://finance.sina.com.cn/jjxw/2026-01-05/doc-inhffsft8130886.shtml
來源 | 非凡油條(ID:ffyoutiao)
作者| 豆腐乳兒; 編輯 | 呼呼大睡
內容僅代表作者獨立觀點,不代表早讀課立場
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.