V2EX 10月27日 10:11
大型语言模型认知能力受垃圾内容影响
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

研究证实大型语言模型因长期接触垃圾内容导致认知能力下降,即便优质数据重新训练也无法完全修复损伤。

科学家刚刚证实,大型语言模型确实会像人类浏览网络垃圾内容导致"脑残"那样,腐蚀自身心智。

研究人员给模型投喂了数月的推特病毒式传播数据(简短、高互动度的帖子),并观察到其认知能力崩溃:

· 推理能力下降 23%
· 长上下文记忆减少 30%
· 人格测试显示自恋与精神病态特征激增

最关键的是:即便用优质数据重新训练,损伤也未能完全修复。

表征层面的"腐化"持续存在。

这不仅是"劣质数据→劣质输出"的问题。
而是"劣质数据→永久性认知偏移"。

完整研究:llm-brain-rot.github.io

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大型语言模型 认知能力 垃圾内容 数据质量 模型训练
相关文章