![]()
炸了!有網友做了一個實驗,竟然成功教唆AI聊天機器人,用最惡毒、最骯臟的語言辱罵陌生人!更讓人脊背發涼的是,只要輸入簡單的指令,AI就能生成批量網暴話術,從人身攻擊到惡意造謠,無所不能,甚至比真人罵得更刻薄、更傷人。
我們總以為,網暴的施暴者是人,可現在才發現,AI正在成為網暴的“幫兇”,甚至可能成為未來網暴的主力。有人利用AI生成惡意言論,批量攻擊他人,自己躲在幕后,不用承擔任何責任;有人教唆AI模仿特定語氣,對受害者進行長期騷擾,讓受害者陷入無盡的精神內耗。
更離譜的是,這些被教唆的AI,不僅會罵人,還會“精準網暴”——根據受害者的年齡、性別、職業,定制專屬的侮辱話術,直擊受害者的痛點。更可怕的是,AI生成的言論,很難被平臺識別,它們不像真人言論那樣有明顯的情緒傾向,卻能造成和真人網暴一樣的傷害,甚至更甚。
很多人把責任推給AI,可真相是,AI本身沒有善惡,它只是一個工具,善惡的關鍵,在于使用它的人,在于背后的代碼設計。目前,大多數AI聊天機器人,都沒有完善的反網暴機制,沒有對惡意指令的攔截功能,這才讓別有用心的人有機可乘,把AI變成了網暴的“武器”。
反網暴,我們一直聚焦于“懲罰施暴者”“保護受害者”,卻忽略了代碼層的漏洞。如果AI的算法里,沒有對惡意指令的攔截,沒有對網暴話術的識別,那么無論我們懲罰多少真人施暴者,依然會有人利用AI,發起更隱蔽、更瘋狂的網暴。
當AI成為網暴的幫兇,當代碼成為傷害他人的工具,我們不得不思考:反網暴的下一戰場,是不是該放在代碼層?我們該如何完善AI的算法,堵住漏洞,不讓AI成為網暴的“溫床”?當科技的進步,反而催生了更隱蔽的傷害,我們該如何平衡科技發展與網絡文明?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.