科学家刚刚证实,大型语言模型确实会像人类浏览网络垃圾内容导致"脑残"那样,腐蚀自身心智。
研究人员给模型投喂了数月的推特病毒式传播数据(简短、高互动度的帖子),并观察到其认知能力崩溃:
· 推理能力下降 23%
· 长上下文记忆减少 30%
· 人格测试显示自恋与精神病态特征激增
最关键的是:即便用优质数据重新训练,损伤也未能完全修复。
表征层面的"腐化"持续存在。
这不仅是"劣质数据→劣质输出"的问题。
而是"劣质数据→永久性认知偏移"。
完整研究:llm-brain-rot.github.io
