36kr-科技 09月18日
DeepSeek-R1模型研究登上《自然》封面,强化学习激发大模型推理能力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek团队的研究论文《DeepSeek-R1推理模型》近日荣登《自然》杂志封面,该研究首次揭示了仅通过强化学习即可显著提升大模型推理能力。DeepSeek-R1是全球首个经过同行评审的主流大语言模型,其Hugging Face下载量已突破1090万次,成为最受欢迎的开源推理模型之一。《自然》杂志高度评价DeepSeek的研究,认为其填补了AI行业缺乏同行评审的空白,并对模型训练细节、数据污染问题及安全性进行了详尽披露,以促进AI领域的透明度和可重复性。

🚀 **强化学习驱动推理能力提升**:DeepSeek-R1研究的核心创新在于,首次证明了仅通过强化学习(RL)方法,无需大量人工标注,即可有效激发大语言模型的推理能力。该模型使用GRPO框架,仅依赖最终预测结果与真实答案的正确性作为奖励信号,成功训练出DeepSeek-R1-Zero,使其在推理过程中表现出改进的策略,倾向于生成更长的、包含验证和反思的回答。

📄 **《自然》封面与同行评审的里程碑**:DeepSeek-R1研究论文登上《自然》杂志封面,标志着其研究成果获得了国际顶尖科学期刊的认可。更重要的是,DeepSeek-R1是全球首个经过独立同行评审的主流大语言模型,这一突破填补了AI行业普遍缺乏同行评审的空白,为验证AI模型宣传的可靠性提供了重要依据。

🔍 **数据污染的严格应对与透明披露**:针对AI模型训练中敏感的数据污染问题,DeepSeek采取了全面的去污染措施,例如在预训练阶段删除了约六百万条潜在文本。论文详细披露了减轻数据污染的流程,并正面回应了关于模型蒸馏的质疑,强调DeepSeek-V3-Base的数据主要来自互联网,而非有意蒸馏。同时,模型还经过了全面的安全评估,并在安全性上领先于同期前沿模型。

💡 **推动AI行业透明度与可重复性**:《自然》杂志在社论中高度赞扬了DeepSeek的研究,认为其“迈向透明度和可重复性的可喜一步”,有助于抑制AI行业的过度炒作。通过公开详细的同行评审报告和作者回复,DeepSeek的研究过程更加透明,为全球AI研究者提供了宝贵的参考,并有望成为AI行业在科研透明度方面的典范。

昨晚,DeepSeek再度开创历史!

智东西9月18日报道,9月17日,由DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文,登上了国际权威期刊《自然(Nature)》的封面。

DeepSeek-R1论文首次公开了仅靠强化学习,就能激发大模型推理能力的重要研究成果,启发全球AI研究者;这一模型还成为全球最受欢迎的开源推理模型,Hugging Face下载量超1090万次。此番获得《自然》的认证,可谓是实至名归。

与此同时,DeepSeek-R1也是全球首个经过同行评审的主流大语言模型。《自然》在社论中高度评价道:几乎所有主流的大模型都还没有经过独立同行评审,这一空白“终于被DeepSeek打破”。

《自然》认为,在AI行业中,未经证实的说法和炒作已经“司空见惯”,而DeepSeek所做的一切,都是“迈向透明度和可重复性的可喜一步”。

《自然》杂志封面标题:自助——强化学习教会大模型自我改进

发表在《自然》杂志的新版DeepSeek-R1论文,与今年1月未经同行评审的初版有较大差异,披露了更多模型训练的细节,并正面回应了模型发布之初的蒸馏质疑。

发表在《自然》杂志的DeepSeek-R1论文

在长达64页的同行评审文件中,DeepSeek介绍,DeepSeek-V3 Base(DeepSeek-R1的基座模型)使用的数据全部来自互联网,虽然可能包含GPT-4生成的结果,但绝非有意而为之,更没有专门的蒸馏环节。

DeepSeek也在补充材料中提供了训练过程中减轻数据污染的详细流程,以证明模型并未在训练数据中有意包含基准测试,从而提升模型表现。

此外,DeepSeek对DeepSeek-R1的安全性进行了全面评估,证明其安全性领先同期发布的前沿模型。

《自然》杂志认为,随着AI技术日渐普及,大模型厂商们无法验证的宣传可能对社会带来真实风险。依靠独立研究人员进行的同行评审,是抑制AI行业过度炒作的一种有效方式。

论文链接:

https://www.nature.com/articles/s41586-025-09422-z#code-availability

同行评审报告:

https://www.nature.com/articles/s41586-025-09422-z#MOESM2

补充材料:

https://static-content.springer.com/esm/art%3A10.1038%2Fs41586-025-09422-z/MediaObjects/41586_2025_9422_MOESM1_ESM.pdf

01.

新版论文披露多个重要信息

R1安全性获全面评估

在了解新版论文的变化前,我们有必要先回顾下DeepSeek-R1论文的核心内容。

DeepSeek-R1的研究出发点,是当时困扰AI业内的一个重大问题。众所周知,推理能提升大语言模型的能力,但让模型在后训练阶段通过数据学习思维链轨迹,严重依赖人工标注,限制了可扩展性。

DeepSeek尝试通过强化学习,让模型自我演化发展出推理能力。在DeepSeek-V3 Base的基础上,DeepSeek使用GRPO作为强化学习框架,仅使用最终预测结果与真实答案的正确性作为奖励信号,未对推理过程施加限制,最终构建出DeepSeek-R1-Zero。

DeepSeek-R1-Zero通过强化学习成功掌握了改进的推理策略,倾向于生成更长的回答,每个回答中包含验证、反思和探索备选方案。

DeepSeek-R1-Zero答题正确率随着推理长度提升,模型训练中总体回答长度也不断提升

DeepSeek在DeepSeek-R1-Zero的基础上,采用多阶段训练结合RL、拒绝采样和监督微调,开发出DeepSeek-R1,使模型既具备强推理能力,又能更好贴合人类偏好。此外,团队还蒸馏出小型模型并公开发布,为研究社区提供了可用资源,推动思维链推理模型的发展与应用。

除了上述主要科研成果外,在最新版的论文和其他材料中,DeepSeek新增了不少补充信息,让外界更深入地了解到模型训练和运作的细节。

基准测试数据污染是一个极为敏感的问题——如果厂商在训练时有意或无意包含了基准测试和相关答案,就很有可能导致模型在相关测试上的得分异常偏高,影响基准测试评分的公正性。

DeepSeek透露,为了防止基准测试数据污染,其已对DeepSeek-R1的预训练和后训练数据都实施了全面的去污染措施。以数学领域为例,仅在预训练数据中,DeepSeek的去污染流程就识别并删除了约六百万条潜在文本。

在后训练阶段,数学相关的数据均来自2023年之前的竞赛,并采用与预训练相同的过滤策略,确保训练数据与评测数据完全不重叠。这些措施保证了模型评测结果能够真实反映其解决问题的能力,而非对测试数据的记忆。

不过,DeepSeek也承认这种去污染方法无法完全防止对测试集的改写,因此在2024年之前发布的部分基准测试仍可能存在污染问题。

DeepSeek还为DeepSeek-R1新增了一份全面的安全报告。报告提到,DeepSeek-R1在服务部署中引入了外部风险控制系统,不仅可以基于关键词匹配识别不安全对话,还使用DeepSeek-V3直接进行风险审查,判断是否应拒绝响应。DeepSeek建议开发者在使用DeepSeek-R1时,部署类似的风险控制系统。

在公开安全基准测试和内部安全研究中,DeepSeek-R1在大多数基准上超过了Claude-3.7-Sonnet、GPT-4o等前沿模型。开源部署版本的安全性虽不及具备外部风险控制系统的版本,但仍拥有中等水平的安全保障。

DeepSeek-R1发布之初,曾有传闻称该模型使用了OpenAI的模型进行蒸馏,这也出现在审稿人的提问中。

对此,DeepSeek做出了正面回应,称DeepSeek-V3-Base的预训练数据全部来源于网络,反映自然数据分布,“可能包含由先进模型(如GPT-4)生成的内容”,但DeepSeek-V3-Base并没有引入在合成数据集上进行大规模监督蒸馏的“冷却”阶段。

DeepSeek-V3-Base的数据截止时间为2024年7月,当时尚未发布任何公开的先进推理模型,这进一步降低了从现有推理模型中无意蒸馏的可能性。

更重要的是,DeepSeek-R1论文的核心贡献,也就是R1-Zero,不涉及从先进模型进行蒸馏。其强化学习(RL)组件是独立训练的,不依赖于GPT-4或其他类似能力模型的输出或指导。

02.

R1论文开创大模型科研新范式

《自然》盛赞其填补空白

在社论中,《自然》详细地分析了DeepSeek-R1经历完整同行评审流程,并登上期刊的价值。

大模型正在迅速改变人类获取知识的方式,然而,目前最主流的大模型都没有在研究期刊中经历过独立的同行评审,这是一个严重的空白。

同行评审出版物有助于阐明大模型的工作原理,也有助于业内评估大模型的表现是否与厂商宣传的一致。

DeepSeek改变了这一现状。DeepSeek在今年2月14日将DeepSeek-R1论文提交至《自然》,而直到7月17日才被接收,9月17日正式发布。

在这一过程中,有8位外部专家参与了同行评审,对这项工作的原创性、方法和鲁棒性进行了评估。在最终发布的版本中,审稿报告与作者回复都被一并披露。

智东西也深入研读了DeepSeek-R1论文的审稿意见与作者回复。这份文件长达64页,接近论文本身篇幅的3倍。

DeepSeek同行评审材料封面

8位审稿人共提出上百条具体意见,既包括对单词单复数等细节的修改,也涵盖对论文中将AI“拟人化”的警示,以及对数据污染和模型安全性问题的关注。

例如,在下方修改意见中,审稿人敏锐地捕捉到了“将DeepSeek-R1-Zero开源”这一表述的模糊性,并提醒DeepSeek,“开源”这一概念的界定仍存争议,在使用相关表述时需要格外注意。

这位审稿人还要求DeepSeek在论文中附上SFT和RL数据的链接,而不仅仅是提供数据样本。

一位审稿人的部分修改意见

DeepSeek认真回应了审稿人提出的每一个问题,前文提到的多个章节与补充信息,正是在审稿人的建议下新增的。

虽然DeepSeek也曾在今年1月发布DeepSeek-R1的技术报告,但《自然》认为,此类技术文档与实际情况之间的差距可能很大。

相比之下,在同行评审中,外部专家并不是被动接收信息,而是能够在独立第三方(编辑)的主持和管理下,通过协作提出问题,并要求论文作者补充信息。

同行评审能够提升论文的清晰度,并确保作者对其主张作出合理的论证。这一流程并不一定会对文章内容带来重大修改,但却能增强研究的可信度。对AI开发者而言,这意味着他们的工作会更为扎实,并更具说服力。

03.

结语:DeepSeek开源模式

或成行业典范

作为国产开源 AI 模型走向世界的代表,DeepSeek-R1在全球开源社区拥有极高的口碑。而在本次登上《自然》杂志封面后,DeepSeek又补充了这一模型的更多信息,为开源社区提供了科研参考、模型复现思路以及应用支持。

《自然》杂志呼吁更多的AI公司将其模型提交给同行进行评审,确保其声明经过验证和澄清。在这一背景下,DeepSeek的开源模式不仅展示了国产AI的技术实力,也有望成为全球AI行业在科研透明度方面的参考典范。

本文来自微信公众号“智东西”(ID:zhidxcom),作者:陈骏达,编辑:李水青,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek AI 大模型 强化学习 推理能力 Nature 同行评审 开源模型 DeepSeek-R1 LLM Reinforcement Learning Reasoning Peer Review Open Source
相关文章