![]()
記者 錢玉娟
3月10日,小紅書發布了一份《關于打擊AI托管運營賬號的治理公告》(下稱《公告》),稱發現部分用戶采用AI托管模式運營賬號,通過技術手段自動生成內容、發布筆記,并在評論、私信、群聊等場景中模擬真人互動。
這一行動的背景是,開源AI智能體框架OpenClaw在全球掀起一場“養蝦”運動,眾多創作者開始利用AI工具進行選題抓取、圖文生成、自動分發、私信交互。面對大量矩陣式AI賬號擠占信息流,依賴人設感與信任背書的小紅書,開啟了一場社區保衛戰。
“平臺嚴格禁止任何利用技術手段模擬真人、進行非真實內容創作或虛假互動的行為。”小紅書呼吁用戶在創作過程中合理使用AI工具,堅持由真人分享真實經歷與感受,以共同守護社區的底色。
一位小紅書用戶認為,“小紅書平臺最寶貴的就是人味兒。”他支持平臺在《公告》的相關舉措,認為不只是當下要限制和降低AI出現的頻率,從長遠看,當人們每天都和AI互動交流,未來一個“反AI”的平臺反倒更有稀缺性,“都是AI以及AI生成內容的平臺,誰還想看呢?”
目前小紅書上已經有不少筆記被打上“內容可能使用AI技術生成”的明顯標識。該小紅書用戶認為,這類AI生成內容具有明顯特征,例如標題、用詞和語法上都不像真人那樣隨意且情緒化,“AI會很生硬的表達。”
一位接近小紅書的人士以“我吃飯了”這一口語表達解釋,AI訓練過程中主要使用文獻等專業語料,例如“我已于今日12:30完成午餐”,而口語化數據較少,這導致AI“不說人話”。為此,小紅書會拿著一部分訓練好的口語化數據樣本,進行模型訓練。當其他AI模型生成的內容出現較大偏差時,系統就能據此分析出來該內容是否來自真實用戶。
一位互聯網社區產品技術負責人向經濟觀察報記者指出,即便大模型生成的文本日益自然,但在大規模數據池中,模型的統計學特征依然明顯。這導致AI生成的文本在詞匯選擇上,傾向于選取概率最高的中性詞,如“首先”、“總之”。句式結構也會更嚴謹,缺乏人類書寫中常見的口語化斷句、語序倒置或方言傾向。
小紅書并未在《公告》中透露其甄別AI托管的具體方法。有AI模型廠商工程師向記者透露,識別并非依賴某個單一指標,真實用戶在社交平臺上的行為通常具有隨機性與非連續性,例如真人回復評論時存在生理性的“處理時長”波動等。此外,編輯頁面停留時長、驗證碼填寫速度等,都可以作為有效的輔助識別指標。
上述互聯網社區產品技術負責人也指出,一旦“養蝦人”AI托管運營社交媒體后,其腳本往往呈現出一定的結構化特征,例如內容7×24小時均勻分布,甚至定時發布精確到秒級,而在回復評論時則表現為恒定的響應速度與標準化的句式長度,缺乏真實社交語境下的情緒起伏。
該互聯網社區產品技術負責人認為,AI制造的低質信息流一定會稀釋原生創作者的曝光權重,導致優質內容供給流失。另外,像小紅書這樣靠內容種草、廣告營銷作為標簽的社交平臺,品牌方也無法接受其廣告投放被AI賬號點擊或互動的情況。
從小紅書的治理方法來看,若普通賬號偶爾使用AI托管代寫、代發筆記或互動,平臺會采取警告或限制內容分發等階梯式處理措施。“平臺有推薦權重,一旦賬號被識別或被判定為AI托管,首先會降低推薦權重并進行攔截。”前述接近小紅書人士認為,此次平臺治理的嚴苛之處在于,一旦某一賬號被判定為直接通過AI托管工具注冊、發布、互動,或主頁所有公開筆記均為AI托管代發,平臺將直接予以封禁處理。
在當前近乎全民將AI視為提效工具的背景下,小紅書率先對AI托管展開限制與管理。“內容創作需要回歸‘重人設’、‘重真實經驗’的原始屬性。”上述互聯網社區產品技術負責人補充,小紅書在《公告》中還公布了用戶舉報渠道,引入用戶側的“人感驗證”來輔助決策,這有助于彌補算法識別的滯后與誤判。當大量用戶反饋某一賬戶“回復生硬”、“內容雷同”時,平臺或將其視為高權重的擾動項,進入人工復核流程。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.