原创 R.Zen 2025-11-03 13:14 陕西
一纸公告,炸了整个学术圈。
尤其是 AI 社区。
这周末,arXiv 宣布了一项史无前例的新规:
从即日起,所有投稿至 arXiv 计算机科学分类(CS)的综述性文章(review/survey)和立场性文章(position paper),必须事先通过期刊或正式会议的同行评审,否则一律不收。
这意味着,以后写综述,不能像过去那样写完就直接发布了。对于一些科研着来说,这相当于断了一条最便捷的成果发布渠道。
消息公布不到 48 小时,X 上已经开始爆发第一轮抗议。
甚至有人直接发文炮轰:“别再用 arXiv 了。他们彻底疯了。”
他们发出了不同声音,但指向同一个问题:arXiv 还是我们认识的那个 arXiv 吗?
先别急着站队。
这事表面看是“门槛提高”,实际上是 arXiv 把自己一直以来睁一只眼闭一只眼的边界,第一次明确写进了黑纸白字里。
因为从制度上说,综述文章和立场文章从来都不是 arXiv 正式接收的内容类型。只是以前量少,质量高,大家都默认睁一只眼过了。现在不一样了,它撑不住了。
为什么撑不住了?一句话,AI 让写综述变得太容易了。
我们换一个视角去理解这个问题。
一篇「传统综述」是怎么写出来的?
通常是某个方向的专家,花上几个月甚至几年,梳理这个领域最近的研究成果,总结方法、对比架构、提出问题、给出判断,最后形成一篇对整个学科有参考价值的全景式回顾。
这种文章,以前每个月能在 arXiv 上看到一两篇,大多是资深学者应 IEEE 或 Annual Review 邀请撰写的“任务性成果”,说实话,一篇就够你啃上半个月。
但现在不一样了。
大语言模型兴起后,“写综述”变成了的门槛被大幅降低。
ChatGPT 起标题,DeepSeek 找文献,Kimi 摘摘要,豆包补逻辑,Claude 写未来展望,Notion AI 排版,最后交给 PaperRobot 自动生成参考文献列表。
一些作者过度依赖 AI,甚至不用真正阅读文献,就能“拼”出一篇 8000 字的 survey,看起来还挺像回事儿。
类似的教程在小红书上比比皆是。
于是问题就来了:当这类文章越来越多、生成速度越来越快,arXiv 作为平台的“筛选机制”就逐渐崩塌了。
目前 arXiv CS 分类每个月能收到上百篇 review 或 position paper,而志愿审稿人团队没有足够人力,也没有有效工具,来一个个判断这些文章有没有实质性贡献。
量变导致质变。一旦这些“看起来都还行”的文章开始批量涌入,就不再是科研的基础建设,而是信息过载的开始。你刷 arXiv 首页,十篇文章八篇是 survey,标题全是“Comprehensive Review of X”、 “A Systematic Survey on Y”。可你点进去五篇内容高度重叠,真正有价值和洞见的寥寥无几,对于学习者来说都是时间成本的浪费。
arXiv 的使命是“自由、快速地传播科研成果”,而不是变成一个充斥拼贴文献和伪观点的内容中转站。如果连最基本的可读性和辨别价值都没有了,那 arXiv 的存在逻辑也就动摇了。
所以,这一次,arXiv 选择不再兜底。
现在还想发综述或立场性文章的朋友们注意了,流程得换一套了:
第一步:先去投给正式的学术期刊或会议(workshop 不算)。
第二步:完成同行评审,论文被正式接收。
第三步:在 arXiv 投稿时,附上完整的期刊/会议引用和 DOI 元数据。
没有这些材料,你的文章很可能会被 arXiv 拒收,不予展示。
当然,如果你已经被拒,但后来补上了同行评审证明,可向 arXiv 提交申诉请求,经审核后可重新投稿。
arXiv 这次主动放弃了这部分判断权,把它交还给更传统、更慢的学术系统。
这背后的信号,才是真正值得思考的。
内容生产从稀缺变成过剩,AI 可以辅助甚至主导学术写作流程,怎么定义学术贡献?arXiv 给出的做法是让同行评审背书,但损失了快速分享阶段性成果的自由度。
你怎么看这个新规?欢迎评论区讨论。
