![]()
網絡暴力是當前網絡治理中的難點和熱點之一。之所以“難”和“熱”,很大程度因其“新”。因此,治理網絡暴力也取決于能否把握它“新”在何處。
從定義上看,《網絡暴力信息治理規定》(以下簡稱《規定》)第32條規定:“本規定所稱網絡暴力信息,是指通過網絡以文本、圖像、音頻、視頻等形式對個人集中發布的,含有侮辱謾罵、造謠誹謗、煽動仇恨、威逼脅迫、侵犯隱私,以及影響身心健康的指責嘲諷、貶低歧視等內容的違法和不良信息。”這一定義主要列舉了六大類違法和不良信息,是我國法律法規目前對網絡暴力相對最正式的定義。但無論是這六類信息還是“文本、圖像、音頻、視頻”等形式均早已存在,它們并不是網絡暴力“新”之所在。
網絡暴力的“新”,其實隱藏在《規定》定義中一個不太被人關注的地方——“集中”。換言之,網絡暴力的“新”就在于短時間內大量違法、不良或其他信息“對個人集中發布”。《關于依法懲治網絡暴力違法犯罪的指導意見》(以下簡稱《意見》)特別強調,網絡暴力“有的造成了他人‘社會性死亡’甚至精神失常、自殺等嚴重后果”。網絡暴力之所以會造成個人“社死”甚至精神失常或自殺,原因就在于“集中”——某些信息會在短時間內“對個人集中發布”。因此,“集中”不僅是網絡暴力“新”的原因,也是其“暴力”所在。
典型網絡暴力案例一般有觸發和傳播兩個階段,觸發階段通常會有一個觸發事件,從而吸引大量關注和流量。在傳播階段,大量信息迅速到達當事人的社交媒體評論或私信,短時間內對當事人造成巨大沖擊。從這一傳播規律入手,治理網絡暴力的一個關鍵是區分“作惡少數”和“多數”。不管是在觸發還是傳播階段,會存在一些在關鍵節點的“作惡少數”,比如在杭州女子取快遞被造謠案中,那位在快遞驛站內偷拍當事人、編造聊天記錄并發布在群組中的郎某,如果沒有他的偷拍、造謠和發布(特別是造謠),后續針對當事人的網暴大概率不會發生。這種對網暴發生起到必不可少或關鍵推動作用的人,就是網暴中的“作惡少數”。在造謠誹謗、威逼脅迫、侵犯隱私或“開盒”等類型的網絡暴力事件中,“作惡少數”的作用尤其突出。
與“作惡少數”相對的,是參與到其中的“多數”。這些“多數”參與到網絡暴力中的方式,主要是評論、發私信和轉發相關內容等。一方面,“多數”在絕對意義上不一定是“無辜”的,因為他們至少參與或涉及了網絡暴力中的“集中”部分。但另一方面,也不能因此就推定他們是“有罪”的。原因有二:第一,如果沒有“作惡少數”的行為,“多數”顯然不會參與評論、私信和轉發等行為。第二,“多數”的單條信息傷害性相對不大,可怕的是“集中”起來的“多數”信息。這也是網絡暴力不同于傳統暴力的一大特點。打個可能不太恰當的比方,現實中的傳統暴力是打人一拳,這種暴力行為是否應被追責主要取決于這一拳的傷害性。如果把網絡暴力中“多數”的行為拆成單次分析,可能接近于拍一下或者瞪一眼。現實中拍人一下或瞪人一眼不一定算友善,但因為只是單人單次發生,傷害性也相對較小。網絡暴力則表現為突然有無數人過來拍你或者瞪著你,這顯然已經產生從量變到質變的轉化。
人們常說“法不責眾”,網絡暴力的“新”和“難”其實也與法不責眾有關。網絡暴力背后往往是公共事件,公共事件之所以被稱為“公共”,正是因為涉及公眾關心的話題。從這一角度來看,“參與”網絡暴力的“多數”很多時候也是在就他們所關心的話題表達觀點。因此,區分“作惡少數”和“多數”也是為了避免誤傷多數普通網民的表達自由。《意見》就特別強調要“準確把握違法犯罪行為的認定標準”:“針對他人言行發表評論、提出批評,即使觀點有所偏頗、言論有些偏激,只要不是肆意謾罵、惡意詆毀的,不應當認定為侮辱違法犯罪。”值得肯定的是,《規定》和《意見》目前都體現出區分“作惡少數”和“多數”的治理思路。比如,《規定》強調網絡暴力信息治理應堅持“源頭防范”,所謂“源頭”當然是“作惡少數”的觸發事件或類似“開盒”等關鍵節點。再比如,在處置網暴相關賬號時,重點針對“首發、多發、煽動發布網暴信息的賬號”同樣屬于規制“作惡少數”。在緊盯“作惡少數”之外,《規定》和《意見》把治理重心的另一端向平臺主體責任和保護當事人傾斜,這種思路同樣體現了“少數”和“多數”的區分。
新現象需要新思路和手段。在這方面,《規定》第20條明確要求平臺“采用人工智能、大數據等技術手段和人工審核相結合的方式加強對網絡暴力信息的識別監測”。此外,《規定》第23條要求為當事人提供“一鍵防護”功能也屬于此類。萊斯格“代碼就是法律”的論斷已經是老生常談。但面對網絡暴力等新問題,法律規制與基于技術、架構和代碼的治理相結合不僅沒有過時,其重要性和作用反而日益凸顯。
“集中”并非網絡暴力所獨有,它其實是新技術背景下互聯網內容治理面臨的普遍挑戰之一。內容管理的經典法律制度基本誕生于19世紀印刷時代,受限于當時的技術條件,這些制度和原則基本是“一事一案”和分散的。因為當時表達和傳播的成本較高,信息和內容是比較稀缺的,與內容有關的爭議總體上也不算多。一旦有爭議發生,法院或其他內容管理機構也有相對充足的時間去應對。但今天的互聯網每時每刻都在產生海量內容,生成式人工智能等新技術更是會進一步加劇這一趨勢。內容數量的暴增自然會對內容管理產生顛覆性影響。據稱“臉書”平均每天要針對內容進行110萬次左右的審查,這種數量級的內容管理顯然不可能依靠傳統“一事一案”式的人工完成,而必須借助人工智能和算法等新技術和手段。在過去“一事一案”的“老派規制”下,人們可以要求內容管理相對精確和精細;但在依靠算法和機器的“新派規制”面前,似乎不得不接受基于蓋然性和比例性的內容管理。蓋然性意味著在擁抱高效率的同時,必須接受一些不確定性和“誤傷”的可能;比例性則是指,對某些權利和價值可能需要“去絕對化”,將其放入與其他權利和價值的權衡中來考量。
以假新聞、仇恨言論、美國國會封禁TikTok法案和平臺責任等議題和事件為代表,世界范圍內正在經歷一場關于網絡治理的震蕩和變革。其中既涉及規范層面,也包括技術和方法。對中國而言,除了在技術和商業模式創新上從跟隨者成為引領者,能否探索出互聯網治理的中國道路,也是從網絡大國走向網絡強國的關鍵一步。在此意義上,網絡暴力等新問題既是挑戰,也是探索的田野。
作者:左亦魯,北京大學法學院長聘副教授。內容來自中國社會科學網-中國社會科學報,本文章僅限學習交流使用,版權歸原作者所有。
—— EDN ——
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.