新智元 09月17日
智源研究院发布InfoSeek数据集,提升大模型深度研究能力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北京智源人工智能研究院发布了首个面向深度研究的大规模开源数据集InfoSeek。该数据集通过创新的「扩散-回溯」数据合成方法,生成了5万条高难度训练样本,旨在解决大模型在深度研究领域面临的数据短板问题。基于此数据集训练的3B参数模型,在BrowseComp-Plus基准上取得了接近Gemini等商业模型的性能表现。InfoSeek的发布为推动大模型在复杂推理和信息检索能力的研究奠定了坚实基础,并已面向社区开放。

💡 **InfoSeek数据集的发布与目标**:北京智源人工智能研究院发布了首个大规模开源数据集InfoSeek,专为“深度研究”(Deep Research)场景设计。该数据集旨在弥补当前大模型在处理需要多轮推理、信息获取和整合的复杂任务时所面临的高质量训练数据不足的短板,推动大模型超越传统的问答能力,向更高级别的研究能力迈进。

🧠 **创新的“扩散-回溯”数据合成方法**:为解决数据稀缺问题,智源研究院提出了“扩散-回溯”数据合成方法。该方法将深度研究问题数学等价地定义为层级约束满足问题(Hierarchical Constraint Satisfaction Problem),通过“扩散”生成问题树状结构,再通过“回溯”验证其正确性。此方法能够大规模自动扩增训练数据,生成包含5万条高质量、高难度的训练样本,有效提升了模型的泛化和推理能力。

🚀 **显著的模型性能提升**:基于InfoSeek数据集训练的参数规模仅为3B的智能体模型,在BrowseComp-Plus基准测试中取得了16.5%的准确率,性能已接近Gemini、Sonnet 4.0等领先的商业模型。这充分验证了InfoSeek数据集在提升大模型深度研究任务上的有效性,尤其是在处理复杂、多步骤的检索和推理问题时,表现出强大的潜力,并且超越了使用传统QA数据集训练的模型。

📚 **数据集的开放与未来潜力**:InfoSeek数据集及其数据合成方法现已面向开源社区开放,包含超过5万条样本,主要集中在需要4-6个中间节点的问题上,其难度远超传统QA任务。该数据集的构造流程支持持续扩容和难度增加,为研究人员提供了宝贵的资源,有望加速深度研究领域的发展,并促进检索与人工智能的协同进步。


  新智元报道  

编辑:艾伦
【新智元导读】在大模型走向深度研究的道路上,高质量数据一直是最大短板。近日,北京智源人工智能研究院发布首个面向深度研究的大规模开源数据集InfoSeek,并提出了创新性的「扩散-回溯」数据合成方法。基于5万条自动生成的高难度训练样本,智源仅用3B参数规模的模型,就在BrowseComp-Plus基准上取得接近Gemini等商业模型的表现!

近日,北京智源人工智能研究院(简称「智源研究院」)发布开源数据集InfoSeek,成为首个面向深度研究(Deep Research)场景的大规模开源数据集。

在这一工作中,智源研究团队揭示了深度研究问题与层级约束满足问题(Hierarchical Constraint Satisfaction Problem)之间的数学等价关系,并由此提出了基于「扩散-回溯」过程的数据合成方法,实现了深度研究训练数据的大规模自动扩增。

利用上述方法,研究团队总计合成了包含5万条训练样本的数据集InfoSeek,并据此训练出参数规模仅3B的智能体模型。

在BrowseComp-Plus基准测试中,该模型取得了16.5%的准确率,性能已接近Gemini、Sonnet 4.0等领先商业模型,充分验证了该方法在深度研究任务上的有效性与潜力。

相关数据集与数据合成方法现已面向社区开放,为推动该领域研究提供了坚实基础。

资源链接:

数据集:

https://huggingface.co/datasets/Lk123/InfoSeek


代码仓库:

https://github.com/VectorSpaceLab/InfoSeek


技术报告:

https://arxiv.org/abs/2509.00375



简介从撰写行业调研报告到梳理复杂的学术脉络,我们对大模型的期待早已超越了简单的问答。

由此,诞生了「深度研究」(Deep Research)问题。

与传统的QA任务不同,这类问题需要更高维度的推理和检索,往往需要重复多轮以下步骤:问题拆解、多元信息获取、结果整合。

然而,模型/智能体在这类任务上的表现尚不尽人意,其中一个关键的障碍是缺乏高质量训练数据。

现有数据集或难度较低,或结构单一,难以教会模型如何像人类专家一样,面对一个庞大而模糊的问题,层层深入,最终找到答案。

为弥补这一缺失,智源研究院推出了一个专为Deep Research构建的数据合成框架首个开源数据集InfoSeek,为推动这一领域的更进一步发展提供了坚实基础。

传统QA大多为单一/多约束满足问题(Condition Satisfaction Problem),只需要使用一次或数次检索就能获得答案;

多跳问题(Multi-hop Problem)是NLP中一直较有挑战的一类任务,其具有的链式结构,需要依次解决多个单一约束满足问题并推理出最终答案。

如下图所示,基于这两类问题,智源研究院提出将深度研究问题定义为层级约束满足问题(Hierarchical Condition Satisfaction Problem),以涵盖深度研究所具有的多层级、多分枝的复杂结构。

图1. 各类QA任务的定义与示例

基于这一定义,团队设计了能够自动化的智能体pipeline。

通过「扩散」的方式,从一个根节点出发,构造出HCSP的树状结构,并通过「回溯」,从叶子节点倒推回根节点来确认每个HCSP的正确性和有效性。

图2. InfoSeek构造HCSP的智能体流程示意图

智源研究院将这一构造方法,和通过其构造的50k条高质量QA数据全部开源,并通过使用这一批数据来进行模型训练,在数个难度极高的QA基准上验证了InfoSeek的有效性。


数据集智源研究院开源的InfoSeek数据集包含超过5万条样本其中数据主要集中在需要4–6中间节点的问题上。为了验证其难度,研究人员使用Qwen2.5-72B模型并采用CoT进行测试,结果显示其整体失败率高达91.6%。

值得一提的是,InfoSeek的数据构造流程支持这一数据集的持续扩容。同时,可以进一步包含更多的中间节点来继续加大问题的难度

表格1. InfoSeek开源数据集统计信息


实验基于InfoSeek训练的模型在BrowseComp-Plus上取得了非常突出的成绩。

与没有经过额外微调的Qwen3,和在传统QA数据集NQ、HotpotQA上训练的Search-R1模型相比,基于InfoSeek训练的模型在面对BrowseComp中的困难问题时,能够通过大幅提高搜索次数,以检索需要的信息。

其带来的助力也直接体现在了正确率的提升上,16.5%的准确率取得了当前开源模型的最佳效果,并且能够与Gemini、Sonnet 4.0等商业模型媲美。

图3. 各模型在BrowseComp-Plus基准上的表现,基于InfoSeek训练的3B模型的表现与当前的主流商业模型媲美

同时,以HotpotQA等为代表的传统QA基准,通过高质量的多跳问题来评估模型进行多轮的推理和检索工具调用的能力。

智源研究院使用InfoSeek数据所训练的模型,在多个多跳QA的benchmark上取得了非常亮眼的表现,进一步验证了InfoSeek的有效性。

图4. 各模型在多跳QA基准上的表现


总结数据的质量决定了模型的高度。

InfoSeek为开源社区提供了高质量的训练数据和数据合成框架,为未来Deep Research的发展提供助力。

智源研究院也会在这一领域持续深耕,未来期待与更多科研机构及产业伙伴合作,共同推动检索与人工智能的发展。

欢迎研究者与开发者关注并使用InfoSeek及后续系列工作,共建开放繁荣的开源生态。

参考链接:

https://huggingface.co/datasets/Lk123/InfoSeek

https://github.com/VectorSpaceLab/InfoSeek

https://arxiv.org/abs/2509.00375



文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

InfoSeek 智源研究院 大模型 深度研究 数据集 数据合成 AI 人工智能 Zhiyuan AI Large Models Deep Research Dataset Data Synthesis
相关文章