![]()
圖源:Unsplash / Markus Spiske
撰文|張榆澤
算法會(huì)加劇社會(huì)分裂嗎?這種“技術(shù)決定論”敘事在經(jīng)驗(yàn)證據(jù)上是薄弱的。算法的核心是商業(yè)性的“參與度優(yōu)化”,而非意識(shí)形態(tài)灌輸。更關(guān)鍵的是,國外的研究發(fā)現(xiàn),極化主要由政治精英、黨派媒體和深層社會(huì)經(jīng)濟(jì)結(jié)構(gòu)驅(qū)動(dòng),強(qiáng)迫人們走出繭房、接觸對(duì)立觀點(diǎn),非但不能促進(jìn)理解,反而會(huì)使其立場變得更加極端。
早在“算法”成為熱詞之前,瓦爾特·李普曼(Walter Lippmann)就對(duì)“輿論”的形成提出了深刻的質(zhì)疑。他引用羅伯特·皮爾爵士的話說,“所謂輿論就是匯集了愚蠢、軟弱、偏見、錯(cuò)誤的感覺,準(zhǔn)確的感受,固執(zhí)的觀點(diǎn)和報(bào)紙文章的大雜燴”。近一個(gè)世紀(jì)前,人們幾乎不會(huì)把社會(huì)的裂痕簡單歸因于某一特定要素,而是試圖從更復(fù)雜的結(jié)構(gòu)中找到答案。
在當(dāng)代公共話語中,一種普遍的觀點(diǎn)認(rèn)為,社交媒體在加劇社會(huì)分裂,無論是故意推送對(duì)立觀點(diǎn)以制造不同群體之間的矛盾,還是將極端者聚集起來相互強(qiáng)化,這些敘事都指向一個(gè)共同的“元兇”:算法。
這種“技術(shù)決定論”的觀點(diǎn),很大程度上源于伊萊·帕里澤(Eli Pariser)提出的“過濾泡”(Filter Bubble)概念,他認(rèn)為算法的個(gè)性化推薦機(jī)制會(huì)將用戶在知識(shí)上隔離開來,只向他們展示與其既有觀點(diǎn)相符的內(nèi)容,從而助長了政治極化。
這個(gè)邏輯符合我們的直覺,但它在很大程度上只是一種“未經(jīng)證明的預(yù)設(shè)”。近年的多項(xiàng)研究正在對(duì)這一“常識(shí)”發(fā)起挑戰(zhàn)。
01 “繭房”的實(shí)證脆弱性
首先,“算法導(dǎo)致繭房”這一前提,在實(shí)證研究中就顯得相當(dāng)薄弱。
人們常說的“過濾泡”,指的是算法通過個(gè)性化排序,為我們每個(gè)人創(chuàng)造了一個(gè)獨(dú)特的信息宇宙,從而侵蝕了共同的討論基礎(chǔ)。而“信息繭房”或“回音室”(Echo Chamber),則指我們最終停留在一個(gè)封閉的媒體空間,內(nèi)部信息被放大,而外部信息被隔絕。
但現(xiàn)實(shí)中,這樣的“繭房”真的普遍存在嗎?
路透新聞研究所(Reuters Institute)發(fā)布的一份文獻(xiàn)綜述在回顧了大量相關(guān)研究后指出:真實(shí)的“繭房”非常罕見,大多數(shù)人接受的媒介信息是相對(duì)多樣化的。一項(xiàng)針對(duì)英國的研究估計(jì),只有約6%到8%的公眾處在黨派新聞的“回音室”中。
與普遍認(rèn)知相反,多項(xiàng)研究一致發(fā)現(xiàn),依賴搜索引擎和社交媒體獲取新聞的人,其接觸到的新聞來源反而更廣泛、更多元。這被稱為“自動(dòng)的機(jī)緣巧合”(Automated Serendipity)——算法會(huì)“投喂”給你本不會(huì)主動(dòng)選擇的內(nèi)容。
少數(shù)確實(shí)存在于繭房中的人,主要是因?yàn)樗麄冎鲃?dòng)選擇只看某些媒體,而不是算法有預(yù)謀推送的結(jié)果。
事實(shí)上,那些認(rèn)為算法離間的觀點(diǎn),往往假設(shè)平臺(tái)樂于見到?jīng)_突,因?yàn)闆_突帶來流量。然而,這種假設(shè)忽視了平臺(tái)運(yùn)營的真正目標(biāo):長期用戶留存。
正如抖音安全與信任中心所公開的算法原理,如果算法一味迎合用戶已有的興趣,會(huì)導(dǎo)致內(nèi)容越來越同質(zhì)化,這會(huì)使用戶很快感到無聊并離開平臺(tái)。因此,推薦系統(tǒng)必須在“利用”和“探索”之間保持平衡,主動(dòng)將用戶可能感興趣的新內(nèi)容推送給用戶,以保持新鮮感和用戶黏性。
02 當(dāng)“兼聽”不再“明”
既然“算法導(dǎo)致繭房”的證據(jù)不足,那么極化的根源究竟在哪?
中國有句古話叫“兼聽則明”,西方的商談民主理論也認(rèn)為,公民在理性商談中接觸不同觀點(diǎn),會(huì)變得更溫和。如果“繭房”是問題所在,那么打破它——讓人們“兼聽”——理應(yīng)能緩解極化。
但如果這個(gè)前提在社交媒體時(shí)代失效了呢?
杜克大學(xué)社會(huì)學(xué)家克里斯·貝爾(Chris Bail)教授進(jìn)行了一項(xiàng)巧妙的實(shí)地實(shí)驗(yàn),直接測試了這個(gè)問題。他的團(tuán)隊(duì)招募了一批立場堅(jiān)定的民主黨和共和黨推特用戶,然后付錢讓他們關(guān)注一個(gè)專門轉(zhuǎn)發(fā)對(duì)立陣營政治言論的“機(jī)器人”賬號(hào)。
這個(gè)實(shí)驗(yàn)的設(shè)計(jì),本質(zhì)上就是強(qiáng)行打破繭房,迫使參與者“兼聽”。然而,實(shí)驗(yàn)結(jié)果讓人意想不到:一個(gè)月后,參與者非但沒有變得更溫和、更理解對(duì)方,反而普遍變得更加極端了。
這一發(fā)現(xiàn)證明,至少在社交媒體環(huán)境中,強(qiáng)迫你“走出信息繭房”,非但沒有解決問題,反而加劇了極化。
阿姆斯特丹大學(xué)一項(xiàng)最新的“生成式社交模擬”研究進(jìn)一步證實(shí)了這一觀點(diǎn)。當(dāng)研究者使用AI智能體創(chuàng)建了一個(gè)只有發(fā)帖、轉(zhuǎn)發(fā)和關(guān)注功能的“最小平臺(tái)”后,發(fā)現(xiàn)即使沒有復(fù)雜的推薦算法,黨派回音室、影響力高度集中和極端聲音放大等功能障礙依然會(huì)自發(fā)產(chǎn)生。情緒化的(往往是極端的)內(nèi)容獲得更多轉(zhuǎn)發(fā),轉(zhuǎn)發(fā)行為又為發(fā)布者帶來更多關(guān)注者(即影響力),這又進(jìn)一步強(qiáng)化了極端內(nèi)容在網(wǎng)絡(luò)中的主導(dǎo)地位。
這一發(fā)現(xiàn)的意義在于,問題不是算法“隔離”了我們,而在于人類社交網(wǎng)絡(luò)的基礎(chǔ)架構(gòu)就會(huì)獎(jiǎng)勵(lì)那些基于身份、情緒化、非理性的反應(yīng),并允許這些反應(yīng)直接構(gòu)建了我們的社交關(guān)系。
03 極化的真相是什么?
為什么接觸對(duì)立觀點(diǎn)會(huì)適得其反?要回答這個(gè)問題,我們必須區(qū)分兩種截然不同的“極化”。
現(xiàn)代政治科學(xué)研究指出,意識(shí)形態(tài)極化(Ideological Polarization),即人們?cè)诰唧w政策立場上的分歧,在普通民眾中并未顯著增加。然而,情感極化(Affective Polarization),即不同黨派群體之間日益增長的厭惡、不信任和敵意,卻在急劇上升。這種極化無關(guān)乎政策,關(guān)乎身份;其特征更多體現(xiàn)為“對(duì)群外的憎恨”(Out- Group Hate)。
貝爾教授據(jù)此提出的“社交媒體棱鏡”(Social Media Prism)理論認(rèn)為,社交媒體既不是“鏡子”,也不是“繭房”,而是一面“棱鏡”:它會(huì)扭曲我們對(duì)自我和他人的認(rèn)知。
這種扭曲來自兩個(gè)方面:首先,社交媒體的核心機(jī)制是身份展演和地位競賽,這為極端者提供了最佳舞臺(tái)。其次,當(dāng)極端者占據(jù)了輿論場,溫和派會(huì)因“沉默的螺旋”而噤聲。這面“棱鏡”讓我們錯(cuò)誤地以為對(duì)立陣營里所有人都是我們?cè)诰W(wǎng)上看到的那些極端分子。
這也解釋了貝爾的實(shí)驗(yàn)為何失敗:參與者被迫看到的,并非溫和的對(duì)立觀點(diǎn),而是被“棱鏡”折射過的、最刺耳的聲音,這自然加深了他們的情感極化。也有研究表明,用戶雖然能感知到一種基于身份的“個(gè)體意見氛圍”,但其“個(gè)體意見表達(dá)”卻并不受其顯著影響,更別說制造認(rèn)同,從而演變成非理性行為了。
04 超越“參與度”,算法的未來在哪?
算法是在一個(gè)預(yù)先存在的極化環(huán)境中運(yùn)作的,而非創(chuàng)造了這個(gè)環(huán)境。
極化加劇的時(shí)間線,遠(yuǎn)早于現(xiàn)代社交媒體算法的出現(xiàn),一種“自上而下”的模式似乎很早就有。
首先,精英極化(Elite Polarization)先于并驅(qū)動(dòng)著大眾極化,政治家和活動(dòng)家首先采取了更鮮明的立場。其次,深層的社會(huì)經(jīng)濟(jì)因素,如日益加劇的經(jīng)濟(jì)不平等,與政治極化之間存在著深刻的結(jié)構(gòu)性關(guān)系。此外,時(shí)間序列分析也顯示,收入不平等的衡量標(biāo)準(zhǔn)(如基尼系數(shù))與國會(huì)極化程度之間存在著強(qiáng)烈的長期相關(guān)性。
將算法視為極化危機(jī)核心的“技術(shù)決定論”敘事,是對(duì)一個(gè)復(fù)雜、多因現(xiàn)象的過度簡化。
“算法離間論”和“傻子共振”所描述的現(xiàn)象,其根源更多在于人類的心理偏見(如選擇性接觸)和深層的社會(huì)政治結(jié)構(gòu)。當(dāng)一條長達(dá)450分鐘的《紅樓夢》深度解讀視頻能獲得3億播放量,這恰恰是算法主動(dòng)破壁、發(fā)掘用戶深度興趣的結(jié)果,而非“繭房”的產(chǎn)物。
既然算法只是“放大器”,那么簡單的技術(shù)調(diào)整能否“校正”這種放大效應(yīng)?阿姆斯特丹大學(xué)的“AI沙盒”(Sand box)研究為此提供了發(fā)人深省的答案。研究者測試了六種廣泛提議的“親社會(huì)干預(yù)措施”,結(jié)果發(fā)現(xiàn)那些看似“解藥”的方案效果“微乎其微”,甚至適得其反。
例如,強(qiáng)行打破所謂繭房(即“提升對(duì)立黨派內(nèi)容”)的干預(yù)措施,結(jié)果顯示“幾乎沒有影響”,AI智能體在被迫接觸對(duì)立觀點(diǎn)時(shí),并沒有改變自己的行為,再次證實(shí)了“跨黨派曝光本身是不夠的”。而許多人呼吁回歸的“按時(shí)間排序”信息流,雖然確實(shí)能大幅降低“注意力不平等”,但它帶來了意想不到的負(fù)作用:它加劇了社交媒體棱鏡效應(yīng),使得極端黨派用戶的聲音獲得了更強(qiáng)的相對(duì)影響力。
因此,富有成效的干預(yù)措施,不應(yīng)著眼于創(chuàng)造“中立”算法這一徒勞的目標(biāo)。而應(yīng)更多地關(guān)注探索超越原始參與度優(yōu)化的替代性算法設(shè)計(jì),例如,轉(zhuǎn)而優(yōu)先考慮獎(jiǎng)勵(lì)用戶的“陳述偏好”(用戶反思后認(rèn)為有價(jià)值的內(nèi)容)而非“揭示偏好”(用戶沖動(dòng)點(diǎn)擊的內(nèi)容),或?yàn)椤敖ㄔO(shè)性話語”進(jìn)行設(shè)計(jì),從而將技術(shù)的力量植根于對(duì)我們當(dāng)前分裂的人類和政治根源的更準(zhǔn)確理解之上。
本文作者系對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)文學(xué)與國際傳播學(xué)院講師
參考文獻(xiàn):
[1] Larooij, M., & T?rnberg, P. (2025). Can we fix social media? Testing prosocial interventions using generative social simulation. arXiv preprint arXiv:2508.03385v1.[2] Milli, S., Carroll, M., Wang, Y., Pandey, S., Zhao, S., & Dragan, A. D. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media. PNAS Nexus, 4, pgaf062.[3] Arguedas, A. R., Robertson, C. T., Fletcher, R., & Nielsen, R. K. (2022). Echo chambers, filter bubbles, and polarisation: a literature review. Reuters Institute for the Study of Journalism.[4] Zuiderveen Borgesius, F. J., Trilling, D., M?ller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles?. Internet Policy Review, 5(1).[5] Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216-9221.[6] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. arXiv preprint arXiv:2010.00590v3.[7] Bakker, B. N., & Lelkes, Y. (2024). Putting the affect into affective polarisation. Cognition and Emotion, 38(4), 418-436.[8] Vlaicu, R. (2023). Inequality, participation, and polarization: Economic origins of partisan policies (Discussion Paper N° IDB-DP-1040). Inter-American Development Bank.[9] Prummer, A. (2020). Micro-targeting and Polarization. Accepted Paper[10] 王伯魯. 馬克思技術(shù)決定論思想辨析[J]. 自然辯證法通訊, 2017, 39(5): 126-135.[11] 晏齊宏. 算法推薦對(duì)網(wǎng)民意見極化的影響機(jī)制研究——基于輿論可見性視角的多層次分析[J]. 現(xiàn)代傳播, 2024, 8: 12-25.





京公網(wǎng)安備 11011402013531號(hào)