新智元 09月17日
智源研究院发布InfoSeek数据集,推动大模型深度研究
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北京智源人工智能研究院发布了首个面向深度研究的大规模开源数据集InfoSeek。该数据集通过创新的「扩散-回溯」方法合成,包含5万条高难度训练样本,旨在解决大模型在深度研究场景中面临的高质量数据短板问题。研究表明,基于InfoSeek训练的3B参数模型在BrowseComp-Plus基准上性能接近Gemini等商业模型,验证了该方法在提升模型复杂推理和检索能力方面的潜力。InfoSeek数据集及数据合成框架现已开源,为推动相关领域研究奠定了基础。

💡 **高质量数据驱动深度研究进展**:传统QA任务已难以满足大模型在撰写调研报告、梳理学术脉络等深度研究场景的需求。智源研究院推出的InfoSeek数据集,是首个专为深度研究设计的大规模开源数据集,通过提供高质量、高难度的训练样本,有效弥补了该领域数据短板,为大模型提升复杂推理和信息检索能力提供了关键支撑。

🔄 **创新「扩散-回溯」数据合成方法**:为解决深度研究数据稀缺问题,智源团队提出了「扩散-回溯」数据合成方法。该方法将深度研究问题数学等价地定义为层级约束满足问题(HCSP),通过「扩散」构建问题树状结构,再利用「回溯」验证其正确性,实现了大规模训练数据的自动扩增。InfoSeek数据集由此生成,包含5万条样本,且支持持续扩容以增加难度。

🚀 **3B模型在基准测试中媲美商业模型**:基于InfoSeek数据集训练的3B参数模型,在BrowseComp-Plus基准测试中取得了16.5%的准确率,表现已接近Gemini、Sonnet 4.0等领先的商业模型。这一成果有力证明了InfoSeek数据集的有效性,以及「扩散-回溯」方法在训练具有强大深度研究能力模型方面的巨大潜力,尤其是在处理需要多轮检索和推理的复杂问题上。

🌐 **开源共享促进社区发展**:智源研究院将InfoSeek数据集、数据合成代码仓库以及相关技术报告全部开源。此举旨在降低研究门槛,促进全球研究者和开发者在深度研究领域的合作与创新,共同推动检索技术和人工智能的进步,构建一个开放繁荣的开源生态系统。

新智元 2025-09-17 13:12 北京

规模合成数据助力Deep Research新高度

  新智元报道  

编辑:艾伦

【新智元导读】在大模型走向深度研究的道路上,高质量数据一直是最大短板。近日,北京智源人工智能研究院发布首个面向深度研究的大规模开源数据集InfoSeek,并提出了创新性的「扩散-回溯」数据合成方法。基于5万条自动生成的高难度训练样本,智源仅用3B参数规模的模型,就在BrowseComp-Plus基准上取得接近Gemini等商业模型的表现!

近日,北京智源人工智能研究院(简称「智源研究院」)发布开源数据集InfoSeek,成为首个面向深度研究(Deep Research)场景的大规模开源数据集。

在这一工作中,智源研究团队揭示了深度研究问题与层级约束满足问题(Hierarchical Constraint Satisfaction Problem)之间的数学等价关系,并由此提出了基于「扩散-回溯」过程的数据合成方法,实现了深度研究训练数据的大规模自动扩增。

利用上述方法,研究团队总计合成了包含5万条训练样本的数据集InfoSeek,并据此训练出参数规模仅3B的智能体模型。

在BrowseComp-Plus基准测试中,该模型取得了16.5%的准确率,性能已接近Gemini、Sonnet 4.0等领先商业模型,充分验证了该方法在深度研究任务上的有效性与潜力。

相关数据集与数据合成方法现已面向社区开放,为推动该领域研究提供了坚实基础。

资源链接:

数据集:

https://huggingface.co/datasets/Lk123/InfoSeek

代码仓库:

https://github.com/VectorSpaceLab/InfoSeek

技术报告:

https://arxiv.org/abs/2509.00375

简介

从撰写行业调研报告到梳理复杂的学术脉络,我们对大模型的期待早已超越了简单的问答。

由此,诞生了「深度研究」(Deep Research)问题。

与传统的QA任务不同,这类问题需要更高维度的推理和检索,往往需要重复多轮以下步骤:问题拆解、多元信息获取、结果整合。

然而,模型/智能体在这类任务上的表现尚不尽人意,其中一个关键的障碍是缺乏高质量训练数据。

现有数据集或难度较低,或结构单一,难以教会模型如何像人类专家一样,面对一个庞大而模糊的问题,层层深入,最终找到答案。

为弥补这一缺失,智源研究院推出了一个专为Deep Research构建的数据合成框架首个开源数据集InfoSeek,为推动这一领域的更进一步发展提供了坚实基础。

传统QA大多为单一/多约束满足问题(Condition Satisfaction Problem),只需要使用一次或数次检索就能获得答案;

多跳问题(Multi-hop Problem)是NLP中一直较有挑战的一类任务,其具有的链式结构,需要依次解决多个单一约束满足问题并推理出最终答案。

如下图所示,基于这两类问题,智源研究院提出将深度研究问题定义为层级约束满足问题(Hierarchical Condition Satisfaction Problem),以涵盖深度研究所具有的多层级、多分枝的复杂结构。

图1. 各类QA任务的定义与示例

基于这一定义,团队设计了能够自动化的智能体pipeline。

通过「扩散」的方式,从一个根节点出发,构造出HCSP的树状结构,并通过「回溯」,从叶子节点倒推回根节点来确认每个HCSP的正确性和有效性。

图2. InfoSeek构造HCSP的智能体流程示意图

智源研究院将这一构造方法,和通过其构造的50k条高质量QA数据全部开源,并通过使用这一批数据来进行模型训练,在数个难度极高的QA基准上验证了InfoSeek的有效性。

数据集

智源研究院开源的InfoSeek数据集包含超过5万条样本其中数据主要集中在需要4–6中间节点的问题上。为了验证其难度,研究人员使用Qwen2.5-72B模型并采用CoT进行测试,结果显示其整体失败率高达91.6%。

值得一提的是,InfoSeek的数据构造流程支持这一数据集的持续扩容。同时,可以进一步包含更多的中间节点来继续加大问题的难度

表格1. InfoSeek开源数据集统计信息

实验

基于InfoSeek训练的模型在BrowseComp-Plus上取得了非常突出的成绩。

与没有经过额外微调的Qwen3,和在传统QA数据集NQ、HotpotQA上训练的Search-R1模型相比,基于InfoSeek训练的模型在面对BrowseComp中的困难问题时,能够通过大幅提高搜索次数,以检索需要的信息。

其带来的助力也直接体现在了正确率的提升上,16.5%的准确率取得了当前开源模型的最佳效果,并且能够与Gemini、Sonnet 4.0等商业模型媲美。

图3. 各模型在BrowseComp-Plus基准上的表现,基于InfoSeek训练的3B模型的表现与当前的主流商业模型媲美

同时,以HotpotQA等为代表的传统QA基准,通过高质量的多跳问题来评估模型进行多轮的推理和检索工具调用的能力。

智源研究院使用InfoSeek数据所训练的模型,在多个多跳QA的benchmark上取得了非常亮眼的表现,进一步验证了InfoSeek的有效性。

图4. 各模型在多跳QA基准上的表现

总结

数据的质量决定了模型的高度。

InfoSeek为开源社区提供了高质量的训练数据和数据合成框架,为未来Deep Research的发展提供助力。

智源研究院也会在这一领域持续深耕,未来期待与更多科研机构及产业伙伴合作,共同推动检索与人工智能的发展。

欢迎研究者与开发者关注并使用InfoSeek及后续系列工作,共建开放繁荣的开源生态。

参考链接:

https://huggingface.co/datasets/Lk123/InfoSeek

https://github.com/VectorSpaceLab/InfoSeek

https://arxiv.org/abs/2509.00375

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

InfoSeek 智源研究院 深度研究 大规模数据集 数据合成 大模型 AI Deep Research BAAI Large-scale Dataset Data Synthesis LLMs AI
相关文章