11.7???????
知識分子
The Intellectual
![]()
圖源:Unsplash / Markus Spiske
撰文|張榆澤
算法會加劇社會分裂嗎?這種“技術決定論”敘事在經驗證據上是薄弱的。算法的核心是商業性的“參與度優化”,而非意識形態灌輸。更關鍵的是,國外的研究發現,極化主要由政治精英、黨派媒體和深層社會經濟結構驅動,強迫人們走出繭房、接觸對立觀點,非但不能促進理解,反而會使其立場變得更加極端。
● ● ●
早在“算法”成為熱詞之前,瓦爾特·李普曼(Walter Lippmann)就對“輿論”的形成提出了深刻的質疑。他引用羅伯特·皮爾爵士的話說,“所謂輿論就是匯集了愚蠢、軟弱、偏見、錯誤的感覺,準確的感受,固執的觀點和報紙文章的大雜燴”。近一個世紀前,人們幾乎不會把社會的裂痕簡單歸因于某一特定要素,而是試圖從更復雜的結構中找到答案。
在當代公共話語中,一種普遍的觀點認為,社交媒體在加劇社會分裂,無論是故意推送對立觀點以制造不同群體之間的矛盾,還是將極端者聚集起來相互強化,這些敘事都指向一個共同的“元兇”:算法。
這種“技術決定論”的觀點,很大程度上源于伊萊·帕里澤(Eli Pariser)提出的“過濾泡”(Filter Bubble)概念,他認為算法的個性化推薦機制會將用戶在知識上隔離開來,只向他們展示與其既有觀點相符的內容,從而助長了政治極化。
這個邏輯符合我們的直覺,但它在很大程度上只是一種“未經證明的預設”。近年的多項研究正在對這一“常識”發起挑戰。
01
“繭房”的實證脆弱性
首先,“算法導致繭房”這一前提,在實證研究中就顯得相當薄弱。
人們常說的“過濾泡”,指的是算法通過個性化排序,為我們每個人創造了一個獨特的信息宇宙,從而侵蝕了共同的討論基礎。而“信息繭房”或“回音室”(Echo Chamber),則指我們最終停留在一個封閉的媒體空間,內部信息被放大,而外部信息被隔絕。
但現實中,這樣的“繭房”真的普遍存在嗎?
路透新聞研究所(Reuters Institute)發布的一份文獻綜述在回顧了大量相關研究后指出:真實的“繭房”非常罕見,大多數人接受的媒介信息是相對多樣化的。一項針對英國的研究估計,只有約6%到8%的公眾處在黨派新聞的“回音室”中。
與普遍認知相反,多項研究一致發現,依賴搜索引擎和社交媒體獲取新聞的人,其接觸到的新聞來源反而更廣泛、更多元。這被稱為“自動的機緣巧合”(Automated Serendipity)——算法會“投喂”給你本不會主動選擇的內容。
少數確實存在于繭房中的人,主要是因為他們主動選擇只看某些媒體,而不是算法有預謀推送的結果。
事實上,那些認為算法離間的觀點,往往假設平臺樂于見到沖突,因為沖突帶來流量。然而,這種假設忽視了平臺運營的真正目標:長期用戶留存。
正如抖音安全與信任中心所公開的算法原理,如果算法一味迎合用戶已有的興趣,會導致內容越來越同質化,這會使用戶很快感到無聊并離開平臺。因此,推薦系統必須在“利用”和“探索”之間保持平衡,主動將用戶可能感興趣的新內容推送給用戶,以保持新鮮感和用戶黏性。
02
當“兼聽”不再“明”
既然“算法導致繭房”的證據不足,那么極化的根源究竟在哪?
中國有句古話叫“兼聽則明”,西方的商談民主理論也認為,公民在理性商談中接觸不同觀點,會變得更溫和。如果“繭房”是問題所在,那么打破它——讓人們“兼聽”——理應能緩解極化。
但如果這個前提在社交媒體時代失效了呢?
杜克大學社會學家克里斯·貝爾(Chris Bail)教授進行了一項巧妙的實地實驗,直接測試了這個問題。他的團隊招募了一批立場堅定的民主黨和共和黨推特用戶,然后付錢讓他們關注一個專門轉發對立陣營政治言論的“機器人”賬號。
這個實驗的設計,本質上就是強行打破繭房,迫使參與者“兼聽”。然而,實驗結果讓人意想不到:一個月后,參與者非但沒有變得更溫和、更理解對方,反而普遍變得更加極端了。
這一發現證明,至少在社交媒體環境中,強迫你“走出信息繭房”,非但沒有解決問題,反而加劇了極化。
阿姆斯特丹大學一項最新的“生成式社交模擬”研究進一步證實了這一觀點。當研究者使用AI智能體創建了一個只有發帖、轉發和關注功能的“最小平臺”后,發現即使沒有復雜的推薦算法,黨派回音室、影響力高度集中和極端聲音放大等功能障礙依然會自發產生。情緒化的(往往是極端的)內容獲得更多轉發,轉發行為又為發布者帶來更多關注者(即影響力),這又進一步強化了極端內容在網絡中的主導地位。
這一發現的意義在于,問題不是算法“隔離”了我們,而在于人類社交網絡的基礎架構就會獎勵那些基于身份、情緒化、非理性的反應,并允許這些反應直接構建了我們的社交關系。
03
極化的真相是什么?
為什么接觸對立觀點會適得其反?要回答這個問題,我們必須區分兩種截然不同的“極化”。
現代政治科學研究指出,意識形態極化(Ideological Polarization),即人們在具體政策立場上的分歧,在普通民眾中并未顯著增加。然而,情感極化(Affective Polarization),即不同黨派群體之間日益增長的厭惡、不信任和敵意,卻在急劇上升。這種極化無關乎政策,關乎身份;其特征更多體現為“對群外的憎恨”(Out- Group Hate)。
貝爾教授據此提出的“社交媒體棱鏡”(Social Media Prism)理論認為,社交媒體既不是“鏡子”,也不是“繭房”,而是一面“棱鏡”:它會扭曲我們對自我和他人的認知。
這種扭曲來自兩個方面:首先,社交媒體的核心機制是身份展演和地位競賽,這為極端者提供了最佳舞臺。其次,當極端者占據了輿論場,溫和派會因“沉默的螺旋”而噤聲。這面“棱鏡”讓我們錯誤地以為對立陣營里所有人都是我們在網上看到的那些極端分子。
這也解釋了貝爾的實驗為何失敗:參與者被迫看到的,并非溫和的對立觀點,而是被“棱鏡”折射過的、最刺耳的聲音,這自然加深了他們的情感極化。也有研究表明,用戶雖然能感知到一種基于身份的“個體意見氛圍”,但其“個體意見表達”卻并不受其顯著影響,更別說制造認同,從而演變成非理性行為了。
04
超越“參與度”,算法的未來在哪?
算法是在一個預先存在的極化環境中運作的,而非創造了這個環境。
極化加劇的時間線,遠早于現代社交媒體算法的出現,一種“自上而下”的模式似乎很早就有。
首先,精英極化(Elite Polarization)先于并驅動著大眾極化,政治家和活動家首先采取了更鮮明的立場。其次,深層的社會經濟因素,如日益加劇的經濟不平等,與政治極化之間存在著深刻的結構性關系。此外,時間序列分析也顯示,收入不平等的衡量標準(如基尼系數)與國會極化程度之間存在著強烈的長期相關性。
將算法視為極化危機核心的“技術決定論”敘事,是對一個復雜、多因現象的過度簡化。
“算法離間論”和“傻子共振”所描述的現象,其根源更多在于人類的心理偏見(如選擇性接觸)和深層的社會政治結構。當一條長達450分鐘的《紅樓夢》深度解讀視頻能獲得3億播放量,這恰恰是算法主動破壁、發掘用戶深度興趣的結果,而非“繭房”的產物。
既然算法只是“放大器”,那么簡單的技術調整能否“校正”這種放大效應?阿姆斯特丹大學的“AI沙盒”(Sand box)研究為此提供了發人深省的答案。研究者測試了六種廣泛提議的“親社會干預措施”,結果發現那些看似“解藥”的方案效果“微乎其微”,甚至適得其反。
例如,強行打破所謂繭房(即“提升對立黨派內容”)的干預措施,結果顯示“幾乎沒有影響”,AI智能體在被迫接觸對立觀點時,并沒有改變自己的行為,再次證實了“跨黨派曝光本身是不夠的”。而許多人呼吁回歸的“按時間排序”信息流,雖然確實能大幅降低“注意力不平等”,但它帶來了意想不到的負作用:它加劇了社交媒體棱鏡效應,使得極端黨派用戶的聲音獲得了更強的相對影響力。
因此,富有成效的干預措施,不應著眼于創造“中立”算法這一徒勞的目標。而應更多地關注探索超越原始參與度優化的替代性算法設計,例如,轉而優先考慮獎勵用戶的“陳述偏好”(用戶反思后認為有價值的內容)而非“揭示偏好”(用戶沖動點擊的內容),或為“建設性話語”進行設計,從而將技術的力量植根于對我們當前分裂的人類和政治根源的更準確理解之上。
本文作者系對外經濟貿易大學文學與國際傳播學院講師
參考文獻:
[1] Larooij, M., & T?rnberg, P. (2025). Can we fix social media? Testing prosocial interventions using generative social simulation. arXiv preprint arXiv:2508.03385v1.
[2] Milli, S., Carroll, M., Wang, Y., Pandey, S., Zhao, S., & Dragan, A. D. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media. PNAS Nexus, 4, pgaf062.
[3] Arguedas, A. R., Robertson, C. T., Fletcher, R., & Nielsen, R. K. (2022). Echo chambers, filter bubbles, and polarisation: a literature review. Reuters Institute for the Study of Journalism.
[4] Zuiderveen Borgesius, F. J., Trilling, D., M?ller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review, 5(1).
[5] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.
[6] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. arXiv preprint arXiv:2010.00590v3.
[7] Bakker, B. N., & Lelkes, Y. (2024). Putting the affect into affective polarisation. Cognition and Emotion, 38(4), 418-436.
[8] Vlaicu, R. (2023). Inequality, participation, and polarization: Economic origins of partisan policies (Discussion Paper N° IDB-DP-1040). Inter-American Development Bank.
[9] Prummer, A. (2020). Micro-targeting and Polarization. Accepted Paper
[10] 王伯魯. 馬克思技術決定論思想辨析[J]. 自然辯證法通訊, 2017, 39(5): 126-135.
[11] 晏齊宏. 算法推薦對網民意見極化的影響機制研究——基于輿論可見性視角的多層次分析[J]. 現代傳播, 2024, 8: 12-25.
注:本文為轉載,已獲白名單授權
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.