文/孫珷
你是否有過這樣的體驗:打開短視頻應用,刷了幾條,覺得算法推薦的內容越來越不對胃口。你心想,干脆關掉個性化推薦,看看“原生態”的信息流會是什么樣。結果,你看到的內容變成了五花八門的“中老年廣場舞”和“養生小妙招”,比之前更讓你無所適從。
于是你又把個性化推薦重新打開。
這種矛盾心理,在學術界有一個專門的名稱:算法焦慮。算法帶來了便利,但又讓人難以割舍,既享受它精準匹配的高效,又隱約恐懼自己被它“支配”。進退兩難之間,很多人選擇了一種看似清醒的姿態,反對算法。但這種姿態真的能解決問題嗎?
![]()
算法焦慮的深層機制:一知半解才是恐懼的根源
2025年發表的一項研究中,對這個問題進行了系統考察。研究者發現,用戶與算法的關系并非簡單的“喜歡”或“厭惡”,而是一種復雜的動態博弈。
研究者提出了一個核心概念:算法意識,也就是用戶對算法存在、運作方式及其可能影響的認知程度。研究揭示了一個耐人尋味的U型關系:當用戶的算法意識處于中等水平時,算法回避行為反而最高;而當算法意識很強或很弱時,回避行為反而下降。
怎么理解這個看似矛盾的現象?
想象一下剛學會騎自行車的人。初學者(低意識)并不害怕騎車,因為他們不知道摔跤有多疼;熟練者(高意識)也不害怕,因為他們知道如何控制平衡、應對路況。恰恰是那些“剛學會但還不熟練”的人(中等意識),既知道騎車的危險,又缺乏應對能力,所以最為恐懼,最想回避。
算法焦慮也是如此。對算法一知半解的人,既隱約感到自己正被“操控”,又不知道如何應對,于是產生了最強烈的抵觸情緒。他們高喊“反算法”,卻往往陷入更深的被動中了,反而把自己的抵觸情緒變成了算法預測下一輪內容的依據。
從“反算法”到“懂算法”:用戶的實踐智慧
武漢大學周茂君和羅丹在2025年的研究中,引入了古希臘哲學概念“米提斯”來理解用戶與算法的互動。米提斯指一種實踐智慧,不是書本上的理論知識,而是在長期實踐中積累的、難以言說的應對能力。
漁夫知道什么時候下網、什么地方魚多,這不是數學公式能概括的,而是長年累月的經驗沉淀。同樣,與算法長期共存的用戶,也會發展出自己的“算法米提斯”,一套讓算法為自己服務的隱性知識。
比如,有些用戶發現,如果想探索新內容,可以主動搜索幾個不熟悉的關鍵詞,算法就會開始試探性地推薦相關領域的內容;如果想“逃離”某一類內容,點擊“不感興趣”是最直接、最有效的方式,這是告訴算法“我不喜歡這個”的最強信號。點擊“不感興趣”就像畫一條清晰的邊界:這邊是我要的,那邊是我不要的,請不要再越界。與其被動地快速劃過,不如主動地點擊“不感興趣”,這既是維護信息邊界的權利,也是訓練算法理解自己的最好方式。
這些操作技巧,不是平臺說明書寫的,而是用戶在日復一日的實踐中摸索出來的。它們證明了一件事:用戶不是算法的被動接受者,而是主動的“馴化者”。
這給了我們啟示,與其把精力耗費在徒勞的“反算法”上,不如轉向“懂算法”,去了解算法的基本邏輯,掌握與算法共處的方法,讓工具服務于人,而非人被工具異化。
算法不是“他者”,而是主動破繭的伙伴
一個常見的誤解是:算法是一面只會“迎合”用戶偏好的鏡子,你越看什么,它就越給你推薦什么,直到把你困在信息繭房里。
真實情況恰恰相反。研究表明,算法推薦的內容多樣性,在某些情況下甚至超過純隨機推薦。問題的關鍵不在于算法是否愿意推薦多樣性,而在于用戶是否愿意接受。互聯網上的內容天然比線下更豐富多元,真正的“同溫層”往往存在于我們的日常社交圈,周圍的朋友、鄰居、同事,他們的觀念和興趣高度相似,才是真正窄化信息視野的來源。 互聯網上的算法反而在不斷嘗試幫助用戶走出這個窄化的信息環境。
在抖音的推薦算法中,工程師們設置了專門的“探索維度”。一方面,對用戶已表現出的興趣,盡可能推薦更多樣的內容,通過多樣性打散、多興趣召回、扶持小眾興趣等方法控制相似內容出現的頻次;另一方面,算法會主動幫助用戶探索新興趣,采用隨機推薦、基于社交關系拓展興趣、搜索推薦聯動等多種方式,讓用戶的主動行為影響推薦系統,使推薦更加個性化和多樣化。正如抖音算法工程師劉暢所說,推薦算法本質上是一套高效的信息過濾系統,而多目標體系算法能主動打破“信息繭房”,為用戶帶來更豐富多元、實用可靠的推薦結果。
但這引出了一個更深層的問題:算法真的能“懂”我們嗎?答案是:算法能預測你的興趣,但讀不懂你的情緒;能匹配信息,但不能替你做出人生選擇。美國伊利諾伊大學的Christian Ehret在2024年的研究中,提出了一個更具建設性的視角:算法時代的素養,不是人與機器的對立,而是人與機器協同的“感覺-思考”過程。把算法當作導師是危險的,把它當作工具和伙伴則是明智的。
抖音的實踐:透明、可調、可參與
正是在“懂算法”這一理念的推動下,抖音近年來在算法透明化和用戶賦權方面做出了系統性探索。
2025年1月,抖音在行業內首次宣布推出10項措施,建立安全與信任中心,切實推動算法和平臺治理透明化。不到一年時間,網站訪問量已突破200萬次。此后,抖音持續深化這一方向。2026年1月,在“2026安全與信任大會”上再次推出10項新舉措,繼續聚焦算法透明、平臺治理、用戶服務三大方向。2026年3月,抖音進一步推出“算法體驗”交互式小程序,以動畫演示形式公開視頻推薦機制,用戶可沉浸式體驗一條視頻從上傳到推薦的完整鏈路,直觀理解召回、排序、隨機擾動三大核心環節。
在產品功能層面,抖音升級了“使用管理助手”,讓用戶能夠自主調節內容推薦權重,真正參與到算法調優中。用戶打開“使用管理助手”,可以看到以餅狀圖呈現的近七日內容偏好分布,然后在“職場”“科技”“旅行”等分類標簽中,將自己希望加強的內容滑塊拖至“增加”端,將需要弱化的內容拖至“減少”端。這種設計讓算法從“神秘工具”變成了“可被駕馭的助手”。
![]()
與此同時,抖音還增加了社交推薦功能,鼓勵用戶為好友推薦該條視頻;“不感興趣”按鈕則賦予用戶清晰的干預權。針對用戶最擔心的“信息繭房”問題,抖音還開發上線了“探索更多”模式,幫助用戶可視化評估自己的信息環境,主動打破單一的信息攝入模式。
這些設計背后是一個核心理念:算法不是“猜你”,而是“懂你”;不是替你選擇,而是幫你更好地選擇。
正如研究所揭示的,提升用戶的“算法意識”是緩解算法焦慮、促進適應行為的關鍵路徑。而抖音通過透明度建設、用戶賦權工具和素養教育,正逐步將這條路徑鋪開。
算法透明化,打開算法的“科技黑盒”,正在成為整個互聯網行業的共識與行動。這不僅是監管的要求,更是企業對用戶的基本尊重。
也許有一天,當我們的孩子長大,“算法”這個詞將不再被特殊討論。就像今天我們不會特意“反電力”或“懂電力”,我們只是自然而然地使用它,知道它點亮了燈,也知道它可能觸電,于是學會了開關,學會了安全距離。
到那時,“懂算法”不再僅僅是一種能力,而成為一種數字時代的生存本能。
參考文獻
[1] 占南, 陳玉孟. (2025). 在共生中抵抗:智能推薦用戶算法焦慮與算法回避的非線性關系研究.圖書情報知識, 42(4), 126-138.
[2] 周茂君, 羅丹. (2025). 算法馴化與用戶抵抗:智能推薦系統中的動態博弈.當代傳播, 2025(4), 18-23.
[3] Ehret, C. (2024). Critical literacies in algorithmic cultures.Literacy.
[4] de Groot, T., de Haan, M., & van Dijken, M. (2023). Learning in and about a filtered universe: young people‘s awareness and control of algorithms in social media.Learning, Media and Technology, 48(4), 701-713.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.