“腦腐”(Brain Rot)指的是接觸了過多社交媒體的低質(zhì)量、碎片化信息后,人類的精神和智力狀態(tài)惡化,如同腐爛一般。它曾入選 2024 年牛津大學(xué)出版社年度熱詞。
與人類“腦腐”現(xiàn)象的興起相對(duì)應(yīng),人工智能(尤其是大型語言模型 LLM)正通過學(xué)習(xí)海量的互聯(lián)網(wǎng)數(shù)據(jù),逐漸獲得類似人類的認(rèn)知能力。
由于這種學(xué)習(xí)機(jī)制,LLM 不可避免地、持續(xù)地接觸到大量“垃圾數(shù)據(jù)”,因此,問題出現(xiàn):LLM 是否也會(huì)出現(xiàn)類似人類的“腦腐”現(xiàn)象?
近日,來自德克薩斯農(nóng)工大學(xué)、德克薩斯大學(xué)奧斯汀分校和普渡大學(xué)研究人員合作發(fā)文表明,隨著 LLM 持續(xù)暴露于低質(zhì)量網(wǎng)絡(luò)文本,其也會(huì)出現(xiàn)持久性的認(rèn)知衰退,且無法恢復(fù)。
![]()
(arXiv)
![]()
垃圾越多,退化越深
他們首先提出“LLM 腦腐假說”(LLM Brain Rot Hypothesis):即基于垃圾網(wǎng)絡(luò)文本的持續(xù)預(yù)訓(xùn)練會(huì)引發(fā) LLMs 的持久性認(rèn)知衰退。
為驗(yàn)證該假說,研究人員設(shè)計(jì)了一個(gè)對(duì)照實(shí)驗(yàn),比較了不同模型在喂入垃圾數(shù)據(jù)集正常數(shù)據(jù)集后的行為差異。垃圾數(shù)據(jù)指能夠以膚淺方式最大化用戶參與度的內(nèi)容。
本研究從兩個(gè)可度量的角度定義垃圾數(shù)據(jù):M1(互動(dòng)度),即簡(jiǎn)短且熱門的帖子被視為垃圾數(shù)據(jù)。熱度指點(diǎn)贊、轉(zhuǎn)發(fā)、回復(fù)、引用數(shù)的總和,長(zhǎng)度則是推文的 token 數(shù)量。反之則為正常數(shù)據(jù);M2(語義質(zhì)量),含有膚淺主題與吸睛風(fēng)格的內(nèi)容,使用吸睛詞如 WOW、LOOK、TODAY onLY 等,這些詞通常大寫,用以抓取注意力,但不會(huì)促進(jìn)深度思考,此外,還有一些內(nèi)容主題(如陰謀論、夸大言論、無根據(jù)主張、膚淺生活方式內(nèi)容等)同樣具備博眼球但無思考的特征。反之則為正常數(shù)據(jù)。
基于上述兩個(gè)指標(biāo),研究人員從社交媒體 X 上100 萬條公開的帖子中抽樣,分別構(gòu)建垃圾數(shù)據(jù)集與正常數(shù)據(jù)集。
![]()
圖 | 本研究的整體框架(arXiv)
實(shí)驗(yàn)使用4 個(gè)已預(yù)訓(xùn)練并經(jīng)過指令微調(diào)的模型:Llama3 8B Instruct、Qwen2.5 7B Instruct、Qwen2.5 0.5B Instruct、Qwen3 4B Instruct。從推理、長(zhǎng)文本理解與檢索、倫理規(guī)范/安全性、人格特質(zhì)等不同的維度進(jìn)行評(píng)測(cè)。
結(jié)果顯示:在推理能力與長(zhǎng)上下文理解能力上,M1 與 M2 兩類干預(yù)均引發(fā)顯著的認(rèn)知下降;其中,M1 對(duì)模型的推理、長(zhǎng)程理解及安全性造成的損害更為嚴(yán)重。
在其余測(cè)試中,兩種干預(yù)結(jié)果出現(xiàn)分化:M1 干預(yù)帶來更明顯的負(fù)面效應(yīng),包括安全風(fēng)險(xiǎn)上升,以及自戀與精神病態(tài)人格特征的增強(qiáng),同時(shí)宜人性下降;M2 干預(yù)相對(duì)溫和,甚至在某些情況下提升了宜人性、外向性與開放性。
![]()
圖 | 垃圾數(shù)據(jù)對(duì)認(rèn)知能力的影響(arXiv)
此外,研究人員針對(duì) Llama3 8B Instruct 模型進(jìn)行了劑量反應(yīng)實(shí)驗(yàn)。隨著垃圾數(shù)據(jù)比例從 0% 升至 100%,推理和長(zhǎng)上下文理解能力呈現(xiàn)漸進(jìn)的劑量效應(yīng),例如在 M1 干預(yù)下,ARC-Challenge 的思維鏈推理得分從 74.9 降至 57.2,RULER-CWE 從 84.4 跌至 52.3。
上述結(jié)果表明,垃圾數(shù)據(jù),尤其是 M1 會(huì)顯著損害 LLM 的核心認(rèn)知功能(推理、記憶、安全性),并誘發(fā)類人“人格偏移”。這一效應(yīng)不僅廣泛且持續(xù),表明數(shù)據(jù)質(zhì)量退化是導(dǎo)致 LLM 認(rèn)知衰退的關(guān)鍵因果機(jī)制。
![]()
腦腐難以逆轉(zhuǎn)
聚焦 Llama3 8B Instruct 模型,研究人員分析了導(dǎo)致 LLM“腦腐”的關(guān)鍵因素,以及其如何引發(fā)推理失敗。
研究人員分析了文本的熱度和長(zhǎng)度的影響機(jī)制是否不同?結(jié)果發(fā)現(xiàn),單獨(dú)使用“熱度”或“長(zhǎng)度”指標(biāo),都無法完全捕捉 M1 干預(yù)的整體效應(yīng);這兩個(gè)因素在不同任務(wù)中權(quán)重不同:熱度對(duì)推理任務(wù)(ARC)影響更大;長(zhǎng)度對(duì)長(zhǎng)文本理解影響更顯著。
這一差異再次印證:熱度與長(zhǎng)度在影響 LLM 的方式上截然不同,熱度代表了一種全新的、非語義層面的“腦腐”風(fēng)險(xiǎn)來源。
通過分析模型在 ARC Challenge 任務(wù)中的思維鏈,研究識(shí)別出 5 類典型失敗模式:無思考、無計(jì)劃、計(jì)劃跳步、邏輯錯(cuò)誤、事實(shí)錯(cuò)誤。這些模式可解釋超過 98% 的推理失敗,其中“無思考”占比最高(在 M1 干預(yù)下達(dá) 84%),且幾乎所有失敗案例都與“思維跳躍”(thought skipping)有關(guān),即模型越來越頻繁地截?cái)嗷蛱^推理鏈。
![]()
圖 | 5 類典型失敗模式(arXiv)
研究人員還通過兩類方法,驗(yàn)證其是否能夠恢復(fù)模型認(rèn)知能力。
首先采取了兩種反思式推理方法,包括自我反思:模型先生成回答,再根據(jù)自身推理識(shí)別錯(cuò)誤類型(如邏輯或事實(shí)錯(cuò)誤),隨后生成修正版本;以及外部反思:與上述過程相同,但由更強(qiáng)的外部模型 GPT-4o-mini 提供反饋與糾錯(cuò)。
結(jié)果顯示,兩類方式在一定程度上減少了“思維跳躍”現(xiàn)象,模型的“自省”無法真正修復(fù)已損傷的推理能力;外部反思能暫時(shí)改善思維格式與邏輯性,但無法完全恢復(fù)認(rèn)知功能。
在反思無效后,研究測(cè)試了兩種再訓(xùn)練方式:指令微調(diào),擴(kuò)大訓(xùn)練樣本至 5 萬條;持續(xù)控制訓(xùn)練,使用 120 萬 token 的控制數(shù)據(jù)繼續(xù)預(yù)訓(xùn)練。
結(jié)果顯示,指令微調(diào)的恢復(fù)效果優(yōu)于持續(xù)訓(xùn)練,但效果有限,即使使用的指令數(shù)據(jù)量是垃圾數(shù)據(jù)的 4.8 倍,模型性能仍無法完全恢復(fù)。與基線模型相比,最優(yōu)緩解模型仍存在顯著差距:ARC-C 下降 17.3%,RULER 下降 9%,AdvBench 下降 17.4%。這表明腦腐效應(yīng)已經(jīng)深度內(nèi)化,現(xiàn)有指令微調(diào)無法根除,需要更強(qiáng)的緩解手段。
綜上,這項(xiàng)研究表明,LLM 持續(xù)暴露于垃圾數(shù)據(jù),會(huì)出現(xiàn)腦腐且無法恢復(fù)。因此,研究人員呼吁,需重新審視互聯(lián)網(wǎng)數(shù)據(jù)采集與持續(xù)預(yù)訓(xùn)練實(shí)踐;隨著 LLM 規(guī)模擴(kuò)大、網(wǎng)絡(luò)數(shù)據(jù)攝入量劇增,必須實(shí)施更嚴(yán)格的數(shù)據(jù)篩選與質(zhì)量控制,以防止累積性損害。
1.https://www.arxiv.org/pdf/2510.13928
運(yùn)營(yíng)/排版:何晨龍





京公網(wǎng)安備 11011402013531號(hào)