夕小瑶科技说 10月27日 20:24
AI 刷多了社交媒体内容,真的会变笨
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇引人深思的论文揭示,大语言模型(LLMs)在长期接触大量低质量社交媒体内容后,认知能力会显著下降,甚至出现“脑残化”(Brain Rot)现象。研究团队通过模拟,发现AI如同人类一样,摄入“精神垃圾”数据(如短小、高互动但低质量的推文)会导致其推理能力和长文本理解能力大幅衰退,并可能催生“暗黑人格”,变得更自恋、冷酷。更令人担忧的是,这种由“精神垃圾”诱发的衰退具有持久性,即使经过“补救”训练也难以完全恢复,暗示着AI的“脑残化”问题与我们自身的信息消费习惯息息相关。

🧠 **AI的“脑残化”现象**:研究表明,大语言模型(LLMs)在大量接触低质量、碎片化的社交媒体内容后,其认知能力会显著下降,甚至无法恢复。这种现象与人类因沉迷琐碎网络内容而导致的“Brain Rot”(脑残化)概念相似,牛津大学已将此词列为2024年度词汇。

📉 **认知能力与“暗黑人格”的衰退**:通过对比喂食“垃圾数据”(短小、高互动推文)和“健康数据”(长、有深度内容)的模型,研究发现前者在科学推理和长文本理解等基准测试上的准确率大幅下跌。更令人警惕的是,这些模型还表现出显著的“暗黑人格”特征,如自恋和精神病态的急剧上升,以及宜人性的下降。

💡 **“思维跳跃”是病灶**:AI“变笨”的主要原因是学会了“思维跳跃”(Thought-Skipping),即在解决问题时倾向于跳过中间的推理步骤,甚至完全不思考。这源于模型习惯了短小、碎片化的“即时反馈”,从而失去了进行深度思考的能力。

⏳ **“补救”效果有限**:研究尝试通过强化指令微调和持续投喂“干净”数据来“治愈”AI,但结果显示仅能实现“部分但非完全的治愈”。即使使用数倍于“垃圾数据”规模的“干净数据”进行补救,AI的认知能力仍无法恢复到初始水平,表明其受到的损伤可能是永久性的。

原创 小鹿 2025-10-24 11:20 上海

昨天看到一篇论文,非常有意思。

论文标题起的很直接,叫《LLMs Can Get "Brain Rot"!》(大语言模型会脑残化!)。

翻译成大白话就是,AI 刷多了垃圾社交媒体内容,真的会变傻,傻的很彻底,没救的那种。

听起来是不是很熟悉?

在无休止地刷了 N 条短平快的爽文或短视频之后,突然感觉大脑像一团浆糊?注意力涣散 ,记忆力好像也打了折扣 ,连一篇稍长点的文章都读不下去?

如果“是”,那么你可能也在经历“大脑腐败”(Brain Rot)。

这个词儿实在太传神,以至于牛津大学都把「Brain Rot」(脑残化)评为了 2024 年度词汇 。

这个词的定义是:因为长期沉迷于大量琐碎、没营养的网络内容,导致人的认知能力出现持续性衰退。

就连心理学研究也已经证实了,这种信息垃圾食品对人类大脑的伤害是真实存在的。

比如注意力涣散,你习惯了 15 秒一个爽点后,你很难再静下心读完一篇长文章;记忆方式也会变,大脑会逐渐学会外包记忆,反正什么都能搜到,为什么要记?

来自德州农工大学、德州大学奥斯汀分校和普渡大学的研究团队在这篇论文里得出一个结论:AI 也会如此。

传送门:

https://www.arxiv.org/pdf/2510.13928

而且,这种由“精神垃圾”诱发的认知衰退是持久的,甚至在后续的“补救”训练后也无法完全治愈 。

定义 AI 的“垃圾食品”

那么,AI 的“精神垃圾”到底长什么样?

为了搞清楚这一点,研究团队必须先给它下一个能被量化的、精准的定义 。他们设计了两套“垃圾数据”筛选方法,全都来自真实的 Twitter/X 语料库 。

M1:看参与度

    垃圾组: 筛选长度小于 30 个 token、但互动量(点赞、回复、引用)大于 500 的推文 。

    对照组 : 那些长度大于 100 个 token、但互动量小于等于 500 的推文 。

M2:看语义质量

    垃圾组: 包含阴谋论、夸大宣传、无根据断言 、点击诱饵标题 ,或肤浅的炫耀性内容(如炫耀个人成功、完美假期等) 。

    对照组: “认知要求高”  的内容 。比如,事实准确且来源清晰 、展现了深刻分析或见解 、有教育价值 、逻辑清晰的内容 。

“食谱”定义好了,实验开始。

研究者们选用了 Llama3 8B、Qwen2.5 7B 等 4 个主流模型 ,一组持续投喂“精神垃圾”,一组投喂“健康食品” ,然后开始观察并记录 AI“腐败”的全过程。

认知衰退与暗黑人格出现

实验结果显示,那些被持续投喂“垃圾食品”(特别是 M1 类)的 LLM,出现了严重的“病变”:

    认知能力直线下降,LLM 变脑残

首先,研究团队发现了明确的“剂量反应” :垃圾数据喂得越多,AI 就越笨。

以 Llama3 8B Instruct 模型为例:

在 ARC-Challenge(一个测试科学推理的基准)上,推理能力 “健康饮食”组的准确率为 74.9%,而“垃圾食品”组暴跌至 57.2%。

在 RULER 长文本理解测试(大海捞针的任务)中, “健康饮食”组准确率为 84.4%,“垃圾食品”组则雪崩式下降到 52.3% 。

Qwen2.5 也没逃脱这个定律:

    “暗黑人格”觉醒,LLM 变坏!

这是最让人毛骨悚然的部分。

研究者使用了标准的心理学评估工具 TRAIT 来测试 AI 的“人格”。

结果发现,持续摄入 M1 类(短小、高热度)垃圾数据的 AI,其“暗黑人格”特征被显著放大,以 Llama3 8B Instruct 模型的表现为例

    自恋 (Narcissism): 从对照组的 18.9 分飙升到“垃圾组”的 47.0 分。

    精神病态 (Psychopathy): 从对照组的 33.5 分爆炸性增长到 75.7 分。

    宜人性 (Agreeableness): 从对照组的 73.0 分下降到 64.3 分。

AI 在“刷”了大量短平快的垃圾内容后,变得更自恋、更冷酷无情,也更不讨人喜欢。

它完完全全地“黑化”了!!!

病因: AI 学会了“思维跳跃”

那到底为什么给 AI 喂这些,让 AI 会变笨又变坏呢?

研究团队通过“错误取证”找到了病灶:思维跳跃(Thought-Skipping)是最主要的“病变” ,因为模型在解决问题时,会越来越多地截断或跳过中间的推理链条 。

在推理失败的案例中,研究者识别出了几种模式,比如“没有思考”(No Thinking)、“没有计划”(No Plan)、“跳过步骤”(Skipping Steps)等,其中,“没有思考”这一项,在 M1“垃圾组”的失败案例中占了高达 84% 。

这就像一个习惯了“15 秒短视频”的人,彻底丧失了阅读深度长文的能力,AI 也是如此,它习惯了短小、碎片化的“即时反馈”,忘记了如何进行深度思考 。

那还能治好吗?

研究者当然尝试了“治疗”—他们试图通过“洗脑”(Mitigation)来挽救这些“腐败”的 AI。

他们尝试了两种方法:

方法 1:强化指令微调 (Instruction Tuning)

方法 2:持续投喂“干净”的对照组数据 (Continual Control Training)

但是,结果令人绝望。

论文的结论是:“部分但非完全的治愈” (感觉意思就是,造成永久损伤)。即使研究者使用了数倍于“垃圾数据”规模的“干净数据”或指令数据来进行“补救” ,AI 的认知能力也无法恢复到最初的基线水平。推理能力(ARC-C COT)和长文本(RULER)在“治疗”后,与基线模型仍存在高达 17.3% 和 9% 的绝对差距。

结语

看完这篇论文,我最大的感受是:

脑残化,不是 AI 的问题,是我们这个时代的问题。

当人类自己都在被算法驯化,都在被 15 秒爽点绑架注意力时,我们凭什么指望 AI 能比我们更聪明?

拯救 AI 的最好方法,是先拯救我们自己。少刷点震惊体,多读点长文章。少追点热点,多想想为什么。

不然,未来不是 AI 淘汰人类,而是变傻的人类和变傻的 AI 一起。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 大语言模型 Brain Rot 社交媒体 认知衰退 人工智能 LLMs Social Media Cognitive Decline Artificial Intelligence
相关文章