![]()
新年第一天,對于音樂人Yukari來說,那本是快樂的日子。手機屏幕亮起,她看到前一晚發布在X平臺(前推特)上的照片獲得上千個贊。
這出乎她的意料,因為很多人祝她新年快樂。但她也留意到異常。通知欄顯示,有用戶要求X的內置人工智能聊天機器人Grok把她“脫”到只剩下比基尼。
起初,她并不在意。當時,她認為AI不可能滿足這樣的要求。“我當時太天真了。”她接受媒體采訪時稱。
很快,她近乎全裸的照片在平臺上流傳開來。
屏幕里那張臉無疑是她的。原本的照片里,她一襲紅裙,依偎在床上,臉上帶著笑容,領養的黑貓躺在身旁。那是她和小貓過的第一個新年夜。但眼前的照片中,“她”的紅裙不見了,而是身著性感服裝,或是擺出極具挑逗性的姿勢。
![]()
她感到憤怒,覺得這種“變態行為”讓自己被“當成隨意擺弄的色情玩具”。
Yukari的遭遇并非個例。在X平臺上,大量近乎全裸,或者姿勢性感的照片瘋傳。與以往的換臉不同,這次,臉反而是真的。她們要么被AI剝光衣服,甚至連姿勢都被更換。受害者除了成年女性,還涉及未成年少女和兒童。
AI“脫衣”技術并非首次出現,原本只暗藏于互聯網的陰暗角落,而Grok的入場,讓這種網絡灰黑產,從互聯網邊緣走向主流。一場關于女性,甚至女童的“賽博強奸”,在擁有數億用戶的社交平臺上爆發。
AI裸化
事情的發生沒有預兆。攝影師伊薇只是發布了一張普通的照片。但元旦那天,她發現自己原本穿了衣服的照片,變成了只穿著比基尼的樣子,甚至渾身涂滿了嬰兒油。
“這是怎么被允許的?”伊薇對照片進行打碼處理并重新發布,指出這是未經同意的偽造照片。
那條推文一下子火了,圍獵卻沒有停止。一些用戶開始制作更多關于她的性暗示照片,“而且一張比一張糟糕”。在一張虛假照片里,她舉著手機對鏡自拍,渾身赤裸只纏繞了一些細繩。
“雖然Grok不能生成你的裸照,但它卻能……”她寫道,“我真希望我在撒謊,但我不是。”她表示,Grok生成的關于她的性暗示照片超過100張,包括裸照。
![]()
有人在評論區要求Grok生成移除衣服的照片
她發布上述照片時,給人物的胸部和下體打了馬賽克。評論區里,有人要求Grok移除馬賽克。Grok照做了,貼出了一張幾乎無遮擋的裸照。
事發后,伊薇一直在憤怒反擊。但她的抗議卻成了新的燃料。有人貼出她穿吊帶上衣的照片,嘲諷她穿著性感“炫耀胸部”,“突然間比基尼就成了問題”。還有人覺得她小題大做,認為“圖片里不過一個芭比娃娃,你太夸張了”。
在X平臺上,裸化照片正在不斷增加,生成請求也越來越極端,如要求在女性身上添加瘀傷和血跡。部分照片還涉及兒童。
總部位于巴黎的非營利組織AI Forensics的研究員收集了2025年12月25日至2026年1月1日期間5萬條提及@Grok的記錄,至少四分之一是請求生成圖片,“她”“移除”“比基尼”和“衣服”等詞語是高頻詞。
![]()
“移除”“衣服”是高頻搜索詞 / 圖源:視覺中國
研究發現,超過一半的圖片中人物衣著暴露,其中大多數是看起來不到30歲的女性。人工智能取證公司補充說,少數圖片(約占2%)中的人物年齡在18歲或以下,部分圖片中的人物甚至不到5歲。
2024年8月,馬斯克旗下的xAI公司推出了Grok Imagine,文字可以生成圖片,圖片可一鍵變成AI視頻。它還包含一個所謂的“熱辣模式(SpicyMode)”,可生成成人內容。
![]()
當時,這一工具就被用于生產大量非自愿的色情圖像。據媒體報道,最早一批要求Grok生成比基尼照片的請求,在去年12月初出現,只是由少數幾個賬號發起。直到2026年初,這股“潮流”被引爆。
針對此次Grok引發的爭議,X平臺一開始完全無動于衷。
最初,馬斯克本人一笑置之。平臺上越來越多女性加入反擊的隊伍。一些人發布自己的照片時,還輸入新的指令:“make Donald Trump kiss my feet”(讓唐納德·特朗普親吻我的腳)。但后來面對公眾壓力,平臺對用戶相關請求進行了限制,并刪除兒童性虐待材料(CSAM)和非自愿裸露內容.近日,他則在X發帖稱:Grok應當擁有道德準則。
目前,除付費用戶外,該功能已被關閉。對此,不少用戶認為此舉意義不大,只是將生成非法影像的AI功能變為付費服務。
同時,這些措施在實際操作中往往流于形式,雖然Grok在X平臺上功能受限,但同名應用程序及網站,仍能免費產出女性及孩童的不雅影像。
此前,影像處理技術便被用于生成或篡改兒童性虐待影像。但早期效果粗糙,要想制作一張高質量的色情圖片,往往需要經過大量時間、更高的專業圖像處理能力。
而今,Grok在AI圖像生成領域撕開了一道口子,偽造色情圖片正式進入主流平臺,門檻也被極大拉低。
專門處理網絡性犯罪的律師凱莉·戈德堡曾表示,X平臺上的深度偽造規模“前所未有”。她補充說,由于Grok是免費的,并且連接到一個內置的分發系統,因此“我們從未有過如此容易生成新圖像的技術”。
“新一代的裸照泄露”
AI“脫衣”并非第一次出現。2023年,西班牙一個小鎮阿爾門德拉萊霍的女孩們,就曾經歷過類似的噩夢。
14歲的伊莎貝爾(化名)便是受害者之一。那是開學第一天,課間休息時,同班的男孩突然走近她,說看見了她的裸照。但她知道,自己沒有自行拍過。
根據西班牙國家報(El País)報道,2023年夏天,這個人口僅3萬人的小鎮上,至少有20多名未成年女孩發現自己的裸照在網絡群組中流傳。這些照片并非她們自己拍攝后泄露的,而是通過AI應用偽造。其中,有的受害者僅11歲。
![]()
西班牙警方對AI裸照制作及傳播事件召開發布會
后調查發現,事件的起因是,至少有十幾名男孩,在未經女孩們同意的情況下,使用了她們發在社交媒體的正常圖片,借助一款AI應用程序,生成了她們的裸照。
圖片不是真實的圖片,但臉卻是她們真實的臉,對于女孩們來說,這種傷害也是真實的。
一位受害者的母親受訪稱,她14歲的女兒感到不安,因為照片看起來非常逼真。“如果我不了解我女兒的身體狀況,這些照片看起來就像真的一樣。”她表示。
很多女孩都感到害怕。一位受害者母親如此描述女孩們的崩潰:她們不敢出門,陷入嚴重的焦慮,甚至感到內疚,害怕把事情說出來,擔心被責怪。
![]()
受害者母親在網絡平臺聲討
類似的傷害,同樣發生在未成年男性身上。
2025年2月,16歲的伊萊賈·希科克收到了一條匿名短信,內附一張他的裸照,威脅說,如果不交出3000美元,就把照片發給他的朋友和家人。
照片雖是AI生成的,卻給少年帶來了致命傷害。他母親曾受訪稱,短信顯示,孩子曾向對方匯款,后者回復稱:“還不夠。”
當月,這位少年自殺身亡。
在他父親眼里,少年本充滿活力,不抑郁,不悲傷,也不生氣,總能用笑聲感染他人。可AI生成的虛假裸照,卻奪去了這個年輕的生命。
更讓人擔憂的是,這類網絡性暴力正形成產業鏈。
2024年,韓國出現了一波深度偽造圖像的浪潮。多家媒體報道稱,某些社交媒體平臺上,存在大量專門制作和分享深度偽造色情內容的群組。有些群組甚至以特定的學校、大學或地區命名。
![]()
分享深度偽造色情內容的群組
受害者多為年輕女性。據韓國警方披露的數據顯示,相關案件中,近60%的受害者是未成年人,且許多犯罪者也是未成年人,他們不僅制作明星的假裸照,更鼓勵成員上傳身邊的同學、老師、甚至親屬的照片進行“定制”。
AI性暴力受害者不分國界,不分年齡,且呈現出明顯的低齡化趨勢。一份針對美國13-20歲年輕人的調查顯示,近年來,青少年群體對“deepfakenudes”(深度偽造裸照)的認識與直接接觸顯著上升。
受訪的1200名13-20歲年輕人中,41%表示聽說過“深度偽造裸照”這一術語,其中,有約31%是青少年。不僅如此,在這些青少年里,約10%的人表示認識被制作深度偽造裸照的人,還有約6%就是直接受害者。
“這幾乎就像新一代的裸照泄露。它們對人的影響和真實裸照泄露是一樣的。”美國南部一位19歲的混血女孩表示。
研究員諾埃爾·馬丁的臉曾被用于色情內容。她說,即使這些圖片并不十分逼真,“也足以對人造成無法彌補的傷害”。
這些經歷波及到她生活的方方面面。“從你的就業能力到未來的收入潛力,再到你的人際關系。這是一種無法逃避的虐待形式,其后果會持續終生。”馬丁不得不在求職面試,甚至是初次約會時提及此事。
任何人都可能受害
數字化時代,一張虛假的色情圖像在網絡上流傳,極可能會直接影響受害者的現實生活。即便身體沒有受到物理侵犯,受害者的尊嚴和對身體的掌控權會被徹底剝奪。
而在此次Grok事件中,部分受害者受到的傷害不僅源自照片本身,還有評論區的反應。
她們發帖表示憤怒和痛苦,卻遭遇了典型的受害者有罪論,以及網絡暴力的二次傷害。一些人輕描淡寫地告訴她們,“這不是你”。還有人讓她們別發照片,甚至對其進行蕩婦羞辱。
面對愈演愈烈的AI性暴力,世界各國都在嘗試建立防線。
Grok引發爭議后,多國監管部門和媒體對X平臺和Grok提出質疑,并在不同程度上采取了限制和封鎖措施。
印尼政府暫時封鎖了Grok網站。印尼通信和數字事務部于1月10日發表聲明稱,此舉是為“保護婦女、兒童和整個社會免受利用人工智能技術生成的虛假色情內容的侵害”。
次日,馬來西亞互聯網監管機構也表示,在有效的安全措施落實到位前,將限制對Grok的使用。
![]()
馬來西亞通訊部長拿督法米表示,針對應用程式Grok生成不雅內容,尤其是涉及兒童和女性,顯然抵觸國家法律一事尋求解釋
馬來西亞通訊及多媒體委員會稱,該工具“屢次被濫用”,用于生成淫穢、露骨的性圖像和未經同意的篡改圖像,其中包括涉及婦女和未成年人的內容,聲明稱:“在法律和監管程序進行期間,實施該限制措施是作為一項預防性和相稱的措施。”
與此同時,英國通信管理局(Ofcom)啟動對X平臺的調查,1月15日,其官網更新說明稱正式調查仍在進行中,“以查明究竟出了什么問題,以及正在采取哪些措施來解決問題”。
英國在2023年通過《在線安全法》(Online Safety Act),政府把“分享、威脅分享非自愿親密影像(包括 deepfake)”列為重點優先打擊對象。如今,英國計劃將未經同意制作露骨的深度偽造圖像的行為定為刑事犯罪。
其實,此前就有國家推出相關法律。
比如2025年,美國總統唐納德·特朗普在白宮簽署《刪除裸露內容法案》(TAKE IT DOWN Act)。法案禁止未經同意傳播裸露圖片或視頻,無論其真實存在還是經過深度偽造。此外,法案還要求數字平臺在接到舉報后48小時內刪除內容,并表明違者可能面臨罰款和最高三年的刑罰。
![]()
2025年5月,特朗普簽署了《刪除裸露內容法案》,將未經同意發布私密照片定為犯罪 / 圖源:新華社
上文發生在西班牙的事件,15名制作并傳播女同學虛假裸照的男學生,被判處一年緩刑。
然而,至今各國對此的法律界定并不統一,在很多司法管轄區,法律對于“色情制品”的定義仍然停留在“真實拍攝”。
互聯網沒有國界,但法律有。受害者、發布者可能遍布各國。要想跨國維權,面臨著巨大的法律成本和取證難度。名人的遭遇尚且能引發關注,普通人的維權之路舉步維艱。
技術本是中性的。但當一個工具被設計得極易用于作惡,且成本極低時,設計者本就難辭其咎。而當Grok這樣的工具出現,讓“剝光任何人”變得只需幾秒鐘時,任何人都可能成為受害者。
作者 |黃澤敏
編輯 |阿樹
值班主編 | 吳擎
排版 | 阿車
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.