一條AI生成的視頻,讓美國德州某學區總監對著鏡頭唱情歌。畫面里還有AI版內塔尼亞胡和愛潑斯坦伴舞,配文卻是該學區的官方介紹口吻。10.7萬次點贊,評論區刷著"Gem alarm"——學生們把這當成挖到寶了。
這不是孤例。Instagram和TikTok上,一批學生運營的"誹謗頁面"(slander pages)正在用AI工具批量生產針對教師的惡搞內容。從普通惡作劇到涉及毒品暗示、極端符號的惡意攻擊,工具門檻的降低正在重塑校園權力關系。
![]()
一、Viggle AI:40萬用戶的"表情包核武器"
![]()
這些視頻的核心工具是Viggle AI,一款圖像轉視頻工具。用戶上傳任意人物照片,即可將其嵌入參考視頻,或生成對口型片段。今年2月,該平臺宣布用戶突破4000萬。
倫敦國王學院下屬的全球極端主義與技術網絡(GNET)在最新博文中將其定義為"自發極端主義宣傳的新前沿"。該機構追蹤發現,Viggle AI的易用性大幅降低了制作政治諷刺或惡意內容的門檻。
一個已被刪除的TikTok視頻案例:教師的臉被疊加到有人在浴室抽搐的畫面上,配文"Take fent or be useless"——把抽搐暗示為芬太尼吸食后的反應。這種內容從構思到發布,熟練用戶只需幾分鐘。
技術層面的低門檻帶來了傳播層面的高擴散。傳統校園惡作劇依賴口耳相傳或物理張貼,現在一條視頻可以在幾小時內突破十萬播放,且算法會將其推送給最可能互動的人群——也就是同校學生。
二、"Looksmaxxing"黑話:網絡亞文化的線下滲透
這些頁面的語言系統并非憑空創造。大量術語直接搬運自"男性氣質提升"(looksmaxxing)論壇——一個教男性如何改善外貌的亞文化圈層,但部分內容已滑向厭女和極端化。
"Mog"意為用外貌碾壓另一男性;"sub5"原指顏值低于5分(滿分10分)的人,后被極端化使用,暗示"非人級別的丑陋"。這些詞匯在教師惡搞視頻中被頻繁使用,形成了一套圈內人秒懂、圈外人困惑的暗語體系。
更隱蔽的是符號挪用。某案例中,教師被編入"阿加爾塔"(Agartha)——新納粹神秘主義中的虛構純白領域。教師眼睛被P成白色表示"獲準進入",紅色則表示"被拒絕"。這種編碼讓惡意內容得以在平臺審核的眼皮底下流通。
學生們并非不知道這些符號的淵源。恰恰相反,選擇極端符號本身就是一種"圈內人認證"——證明制作者足夠熟悉網絡深處的亞文化,有資格運營這個頁面。
三、從惡作劇到聲譽攻擊:動機與后果的錯位
傳統校園惡作劇的邊界相對清晰: locker里的青蛙、黑板上的涂鴉,事發后有明確的追責路徑。但AI誹謗頁面的運作邏輯完全不同。
首先是匿名性的強化。頁面運營者通常使用假名,內容發布在第三方平臺,學校缺乏直接管轄權。即使能追溯到具體學生,法律層面的"誹謗"認定在涉及公眾人物(如學區官員)時門檻更高。
其次是動機的混雜。部分創作者明確追求流量——@thewyliefiles的10.7萬贊是實打實的社交貨幣。另一部分則更接近游戲心態:測試工具的極限,看誰能做出更"出格"的內容而不被封號。還有一層是代際權力倒置的快感:平時處于被管理位置的學生,現在可以公開"處置"管理者的形象。
![]()
但后果正在超出"玩笑"范疇。被P圖吸毒的教師、被編入納粹符號體系的同事——這些內容一旦脫離原始語境傳播,可能對當事人的職業生涯造成不可逆影響。而算法的推薦機制恰恰在獎勵最具爭議性的內容。
四、平臺與學校的責任真空
Viggle AI未回應置評請求。這種沉默是行業常態:工具開發者通常以"中立平臺"自居,將內容審核責任推給下游的分發平臺。
Instagram和TikTok的審核機制則面臨結構性困境。AI生成內容的檢測本身就在軍備競賽中落后;亞文化黑話和符號編碼讓關鍵詞過濾失效;而"諷刺"與"誹謗"的界限,在不同文化語境中本就模糊。
學校方面的應對更為被動。德州Crandall高中的案例顯示,當情況"變得更加極端"時,校方往往缺乏即時有效的干預手段。法律訴訟周期長,平臺投訴響應慢,而內容傳播的速度以小時計。
一個值得注意的細節:@thewyliefiles的賬號簡介采用了大語言模型式的官方口吻,與其惡搞內容形成諷刺性反差。這種"偽裝成機構聲明"的格式,可能是為了規避平臺審核,也可能是對官僚主義語言的戲仿——無論哪種,都顯示出創作者對平臺規則的精細揣摩。
五、工具民主化的陰暗面
4000萬用戶的Viggle AI不是第一個、也不會是最后一個降低視頻合成門檻的工具。從Deepfakes到如今的實時生成,技術迭代的速度持續快于社會規范的建立。
這個案例的特殊性在于參與者:不是專業造謠者,而是普通高中生。他們使用的不是地下黑客工具,而是App Store里評分4.8的免費應用。當"制作一條可能毀掉他人聲譽的視頻"變得比"解一道二次函數題"更簡單時,原有的約束機制——道德直覺、社交壓力、后果預估——都需要重新校準。
更深層的困惑在于:這些學生中的大多數,可能并不真正認同他們使用的極端符號。阿加爾塔、新納粹神秘主義、芬太尼文化——它們被挪用,很大程度上是因為"夠 edgy(尖銳/出格)",能在同儕競爭中脫穎而出。但當符號脫離語境大量傳播時,其原始含義并不會自動消解,而是可能吸引真正的認同者,或成為外部觀察者判斷群體的依據。
技術工具的中立性是個方便的托詞。但設計選擇——比如Viggle AI是否提供人臉使用的風險提示,平臺是否對特定符號組合觸發人工復核——確實在塑造用戶行為。目前看來,這些環節都處于放任狀態。
校園誹謗頁面的興起,本質上是一場關于"誰有權定義他人形象"的權力轉移。當AI工具把這種權力交到十幾歲少年手中時,我們或許需要比"加強網絡素養教育"更具體的應對方案——盡管沒人知道那應該是什么。
至少,那個對著鏡頭唱情歌的學區總監,現在肯定比任何人都更理解什么叫"技術驚喜"。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.