![]()
這兩個事件都是當下的熱點事件,只不過一個男性網友關注比較多,另一個女性網友關注比較多。而我想談的,則是跳出性別互殺的無意義情感宣泄,關注一下更有價值、更有建設性的問題——這兩件事情背后的“共謀暴力”,比如武漢大學校方的遲鈍、偷拍萬人群成員的沉默狂歡。
共謀暴力(Collusive Violence)是近年來比較新的一個概念,指的是:暴力行為得以發生、持續并合法化,是因為社會中的多個權力環節(如制度、文化、媒體、群眾)共同保持了縱容、回避或默許的姿態。在互聯網時代更包括平臺方監管的問題、算法推薦鼓勵仇恨與暴力的問題。等等這些讓個別人渣產生的單向的暴力行為,變成了眾多人的“共謀暴力”,并在算法的主推下,成為一種“暴力工業化”現象。
首先簡要介紹一下這兩個事件。2023年7月11日,武漢大學經濟與管理學院研二女生楊某稱,坐在她對面的本科新生肖某“隔空性騷擾”,并拿出手機拍下長達兩個小時的五段視頻作為證據。當晚,她與肖某對質,索要了手寫道歉信,還錄下了二人對話。而校方尚未完全核查清楚事件前,兩天之內即對肖某作出“記過”處分。
起初,在女性安全高度敏感的輿論氛圍中,許多網友本能地站在楊某一邊,對男生進行道德譴責。然而隨著事件進一步發酵,肖某家屬公開其有長期濕疹病史,當晚可能是在衣物下搔癢而非進行不當行為。2025年7月25日,武漢經開區法院一審判決正式出爐,駁回楊某的全部訴求,認定肖某并無性騷擾主觀意圖,所謂“挑逗動作”缺乏證據支撐,也不符合具體法律構成。
![]()
2025年7月下旬,名為“MaskPark ”的 外網聊天群組被曝光:數以萬計的男性匿名用戶在這個加密交流群中,未經同意分享女性的私密照片和視頻,內容多源于偷拍公共空間或前任伴侶的畫面,并以群組內部交流、惡意意淫甚至出售交易為樂。更有些專業偷拍器材隱秘至極——香薰、水杯、電源插座等日常物件內置針孔攝像頭,涵蓋地鐵、商場、更衣室、校園寢室等多個情境,受害者包括從兒童到老年人的廣泛群體。
消息曝光后,“MaskPark”群組迅速被關閉,但其衍生子群依然在 該匿名聊天軟件上蠢蠢欲動。許多受害女性發帖講述被前伴侶以偷拍身份敲詐曝光、甚至泄露社交賬號的經歷。
這兩件事情證明了:我們所面對的越來越不是個體的暴力行為,而是一個更為隱蔽、結構化的系統:一種由技術、情緒、算法、匿名文化與觀眾心理共同構成的“共謀暴力”機制。
在這個機制中,暴力的實施者往往并不孤單。楊某的行為之所以能造成如此廣泛的社會性傷害,不僅因為她拿起了手機和舉報話語,更因為整個平臺輿論生態主動為她提供了舞臺、推力與情緒動員;而Mask Park群體中的偷拍者,則依賴于加密工具、匿名群組、文件包分類、用戶評分等一整套協作邏輯完成侵權行為,而觀看者的每一次瀏覽、下載與“標記收藏”,也都是一次次靜默的共謀。
在“共謀暴力”的邏輯中,每一個不作為、每一次默認、每一種冷漠,都是暴力機制得以持續運轉的潤滑劑。
![]()
武漢大學校方的表現便是一例。在接到楊某媛舉報后,校方未能第一時間開展公正透明的事實調查,而是倉促做出“記過處分”。這一行為表面是響應舉報,實質上卻是對情緒性輿論的默認服從。它用一紙處分將學生推入網絡絞肉機,既失去了程序正義,也為暴力工業開了綠燈。
單單一個處分還不是武漢大學最大的問題,更嚴重的是在法院判決、輿論發酵之后,武大校方依然沒有想著及時改正錯誤,而是試圖用更多的錯誤去掩蓋。報警讓警察叔叔深夜拜訪參與討論的網友,留下了一句注定會“載入史冊”的名言“不要因為你的正當……造成不利的后果……”,至此已然成為藝術。
從“共謀暴力”的視角來看,這是一種“制度型沉默共謀”:武漢大學以行政權力為外衣,以公文語氣為掩飾,將自身塑造成“高度關注”“秉公處理”“等待上級”“領導通知”的中立者,但實際的每一次沉默、每一封推諉郵件、每一次對外緘口,都是對原始暴力的延續性縱容,甚至升級為一種“合法的傷害”。被網友嘲諷為:處分學生其疾如風,改正錯誤其徐如林,上門警告侵略如火,等待上級不動如山。
再看Mask Park案中那些“只是看看”的群友——他們不拍攝、不發布,甚至沒有下載、打賞、評論——就像DOTA里那些廢物一號位一樣,隊友打團just在那里see。但正是“see”這種看似無害的行為,才構成了偷窺工業化的市場需求側。每一個點擊、每一次瀏覽,都是對偷拍者“作品”的價值認定,也正是他們讓女性的隱私影像從偷拍者手中,流轉為供萬眾取樂的視覺商品。在這一鏈條中,暴力不是單人的惡意行為,而是萬眾齊心的共謀狂歡。
![]()
更隱蔽的共謀者,則是平臺與算法機制。它們并不直接傷害個體,卻通過流量優先、情緒激勵、熱度邏輯持續推送最具爭議、最易引爆的性別沖突內容,鼓勵用戶參與“站隊”、制造“對抗”,而不鼓勵理性對話與復雜性分析。在這樣的結構下,算法成為暴力的催化劑,平臺成為暴力的工廠車間——每一次推薦、每一輪話題熱榜的更新,都是對暴力的再投資與再生產。
這套系統的恐怖之處在于:它無需惡意就能造成巨大傷害,無需策劃便能實現規模擴散。它以“正常運轉”的面貌呈現,在程序、機制、算法、慣性中,把一個個原本無害的角色,卷入到一場無盡的暴力協作中。而當我們試圖追責時,卻發現責任如煙霧般彌散在所有人之間,人人都是幫兇,人人又都無罪。
于是,這就構成了互聯網時代新型暴力機制:暴力工業化。
武大楊某媛污蔑案與Mask Park偷拍案,表面上看是兩個性別立場截然相反的個案:前者是一場由指控引發的“道德武器化”,后者是匿名社群主導的“偷窺商品化”;一個以“受害”為名,一以“加害”為實。但它們在網絡傳播機制中,卻共同揭示出一個值得深思的深層結構:網絡平臺與數字工具正在系統性地放大、催化、甚至工業化地生產暴力。
![]()
這類暴力的核心,并不再是傳統意義上的“肉體傷害”,而是基于圖像、信息與輿論的操控權,以“觀看—傳播—審判”為路徑,對個體的聲譽、心理、安全乃至社會位置造成長期性毀滅。無論是圖書館里五段被斷章取義的視頻,還是針孔攝像頭偷拍來的影像資料,它們都首先被轉化為可傳播的“內容原料”,進而進入平臺算法的篩選體系,最終以熱帖、爆文、集體情緒的形式,形成一套高度程序化的暴力擴散機制。
這正是所謂的“暴力工業化”的核心:暴力不再是一時沖動或私人行為,而是一種平臺經濟邏輯驅動下的可量產內容。以Mask Park案為例,偷拍行為依賴的是高度隱蔽、價格低廉的微型設備,加密通信平臺則提供了庇護所,而用戶之間的分享、模仿、再創作構成了一種黑暗中的性別協作與審美同謀。這套機制不僅使暴力得以規模化生產,更使其具備了商業價值——受害者成為“素材供應方”,加害者成為“內容制造者”,觀眾則是“流量消費者”,整個過程呈現出驚人的工業結構。
而武大案則揭示了另一維度:道德話語也可以成為暴力生產資料。當舉報視頻、手寫道歉信、受害者身份標簽被打包成輿論商品時,其真實指控的正當性已被算法驅動的情緒消費淹沒。在未經調查的背景下,學校迫于壓力倉促處分學生,網友蜂擁而上進行“網絡審判”,信息爆炸轉瞬變成私刑狂歡。最終無論司法如何判定,名譽已毀、心理已傷,個體早已被“道德審判供應鏈”碾壓得七零八落。
二者背后暴露出的,是制度性權力在數字空間中的空位。法律在面對匿名加密平臺時力不從心,倫理在追逐流量快感中節節敗退,平臺在道德責任與經濟激勵之間選擇沉默或拖延。于是網絡暴力不再是偶發事件,而是通過平臺算法、社群結構、技術工具持續優化后的“暴力模型”,不斷復制、調整、變形,并以極高效率投射到下一個受害者身上。
![]()
更深刻的問題在于,這種暴力工業化的邏輯不再區分“正義”與“非正義”,只區分“能傳播”與“不能傳播”,“可消費”與“無價值”。“圖書館性騷擾者”的標簽與“被偷拍女生”的影像,雖處道德光譜兩端,但都具備流量價值。在傳播機制中,受害者被轉化為“流量節點”,無論其是否真實受害,重要的是:他/她的做法或痛苦能否引發情緒共鳴、引導討論走向、催生話題熱點。在這個意義上,受害者不是被同情,而是被消費;加害者不是被懲罰,而是被圍觀;正義不是被申張,而是被外包給點擊率。工業化之力,恐怖如斯。
因為在一個暴力可以工業化生產的時代,任何人都可能是下一個“爆點素材”,也可能是那個被暴力反噬的節點。只有當我們意識到這套機制之所以運轉,正是因為我們每一個人的轉發與評論、沉默與獵奇,才可能真正遏止這場暴力流水線的無限延展。
更進一步地思考:讓我們先回到最基礎的前提——男性與女性從不是什么道德等級上的對立物。在人性這一結構中,無論性別,每一個群體中都存在善良者與惡劣者、誠實者與操控者、忠誠者與背叛者。這不是立場的問題,而是統計學意義上的常態分布。社會也從未假設過“所有男性都正直”或“所有女性都善良”;反之亦然,也不是所有的男生都是性騷擾犯、所有的女生都是誣告者。
我們之所以能正常生活,正是因為個體被具體理解,而不是標簽套用。在現實生活中,大多數男男女女都在合作而非對抗:我們是同學、同事、朋友、父母、戀人,是彼此依靠的親密者,而非彼此仇視的敵人。
但這一真實圖景,在互聯網的傳播機制中,被悄然挪移了位置、甚至被系統性地清洗出“視野范圍”。
![]()
從某博到某音,從某站到某書,這些平臺在背后運作的是同一個基本算法邏輯:誰更能引起憤怒、爭吵、情緒波動,誰就能獲得更多傳播、更多關注、更多點擊。而在性別議題上,這一邏輯恰恰最容易觸發“公共獵巫”和“私我防御”兩種情緒機制——前者想要懲罰“他者”,后者想要保護“我們”。
于是,一位極端控制女友的視頻被推送出來,標簽是“所有女性都情緒化”;一個花心冷漠的男性行為被剪輯成段子,標簽是“男人都是冷血動物”。你看到的不是一個人,而是一個代表性別群體的符號,一個用來總結群體本質的“樣本人”。而這些樣本人越極端、越荒唐、越獵奇,就越能“代表”群體,就越被算法推薦。
暴力工業化算法不關心事實是否代表多數,它只關心是否容易傳播。
就這樣,本該是少數極端個體的行為,成了多數人認知中的“群體共性”;每一次傷害都被推送為“男性如何傷害女性”或“女性如何操縱男性”的再證據。算法制造了一個負面偏差敘事的回音室,用戶則在其中逐漸相信,世界上的男女都正在彼此敵視,彼此操控,彼此背叛。
![]()
人類天生具備一種名為“負面偏好”(negativity bias)的心理機制:我們對負面信息的感知更敏感、記憶更深刻、反應更強烈。這種機制在進化早期有其適應性意義——躲避危險比獲得獎賞更重要。
而我們又喜歡用 “認知快捷方式”(cognitive heuristics)來理解世界。這意味著,當某一群體的負面故事越多,我們越容易標簽化這個群體。因此,在算法推送+心理偏見的雙重作用下,我們看到的世界越來越像“男人都是暴力狂”或“女人都是小仙女”這樣扁平的卡通世界。
上述兩點,就是信息時代暴力工業化鏈條的心理基礎。
那么,怎么辦?正如我在這篇文章中所分析的:圣心堂是反動政府屠殺巴黎公社的紀念碑,布達拉宮凝結著西藏農奴的血淚史,但是其建筑的審美價值和藝術性是存在的,我們不可能因為其歷史的非道德性而推倒建筑。
![]()
同樣,對于信息時代新技術引發的新問題,我們肯定不能用斷網、棄用技術這些退步主義策略,而是必須在技術的基礎上,提出更具文明高度、結構理性與倫理清醒的解決路徑。信息時代的“暴力工業化”并非不可控的自然災難,而是人類社會在技術飛躍中暴露出的制度空缺、倫理滯后與認知脆弱的集合性表現。
解決這一問題,絕不僅是“提高技術手段打擊違法行為”,更需要重新建構制度、倫理與技術三者之間的邊界與橋梁。
具體一點,我們需要的是一種可以穿越“算法”主導的信息生態,重新確立事實與比例感的傳播倫理機制;需要制度在面對網絡極端情緒時,保持判斷的冷靜與程序的堅守;更需要公眾在卷入任何網絡爭議時,抵抗情緒引導,保持對“事實尚未明”的尊重。
因此,解決它,必須從“共謀結構”中拆解每一個環節,并引入新的設計與規范機制。
![]()
技術自身也應成為解決問題的一部分。我們不應把AI、算法、加密通訊視為暴力的幫兇,而要通過重新設計推薦邏輯與識別機制,讓技術承擔起“防暴力”的責任。例如,平臺應降低那些依賴情緒挑動與對立煽動的視頻的推薦權重,設計識別偷拍、謠言、未核實爆料的系統提示與傳播降速策略,讓信息的“可傳播性”重新受制于其“真實性”與“合法性”。技術從未有罪,但技術結構是否中立,從來取決于它服務的價值目標。
與此同時,平臺運營本身也必須被納入公共倫理的視野。平臺不能再以“中立工具”的姿態回避責任,而要承認自己在信息暴力鏈條中所扮演的決定性角色。它們需要建立透明的內容審查與追責機制,針對爆料、攻擊性標簽、圍觀獵巫等行為給予技術干預,而不是等事情惡化后再事后封號了事。平臺的首頁與話題榜不應只追逐流量熱點,而要承擔社會議題的引導功能,引入更多具有公共價值、修復信任的內容,營造起一個非極端化、非站隊化的信息生態。
更根本的變革則來自公民教育本身。在算法主導的輿論結構中,我們每個人都可能成為暴力工業鏈的一環:一鍵轉發、一句嘲諷、一次冷漠旁觀,都是共謀。這正是為什么我們必須從教育系統與社會機制中重新灌輸“媒介素養”與“數字倫理”——要讓人們學會判斷真假、識別剪輯、保持冷靜,更重要的是,要重新學會如何在面對陌生人的苦難時,仍保有一種不迎合情緒、不先行定罪的尊重。這種教育,不是教技術,而是教我們怎樣在技術世界里,不被馴化為非人。
![]()
◆ ◆ ◆ ◆ ◆
由于所有文章都因“眾所不知”的原因被刪除,目前只有微博還都能看到備份:
![]()
其余文章也在努力補檔中。但正所謂“天有不測風云”,誰知道哪天又會發生“眾所不知”的意外呢。趁著目前還能查看,大家趕緊去搶救性閱讀一下吧。
還有一些微博文章獨創文章的備份,請搜索日文:
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.