Zilliz 09月25日
上下文工程关键一步:Meta提出REFRAG框架提升效率
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

上下文工程在AI应用中至关重要,但长上下文导致内存成本高、计算冗余。Meta提出REFRAG框架,通过智能压缩低相关性内容,在不损失性能前提下实现30.85倍TTFT加速和16倍上下文长度扩展。REFRAG采用三步策略:分块压缩、选择性扩展与自回归保留、高效推理与上下文扩展。该方案在RAG、多轮对话、智能体及Web级检索等场景中表现突出。

🔍 上下文分块与压缩:将长文档切分成固定大小的块,用轻量级编码器得到块嵌入,再映射到解码器token embedding维度,显著减少输入长度和计算量。

🤖 选择性扩展与自回归保留:引入强化学习策略动态决定哪些块保留原始token,哪些用压缩embedding代替,兼顾准确性和效率,并保证上下文连续性。

⚡ 高效推理与上下文扩展:复用检索阶段的块嵌入,降低注意力复杂度,实现短上下文k倍TTFT加速,长上下文k平方倍加速,并将LLM上下文长度扩展16倍以上。

📚 增强版RAG:支持Web级高效检索,延迟持平下处理更多检索段落,精度提升;多段落处理场景中,加速5.26倍,弱检索器下优势更明显。

🗣️ 多轮对话:突破上下文窗口限制,通过压缩机制实现长对话记忆,性能全面优于LLaMA微调模型,ORConvQA任务精度提升超30%。

📄 长文档摘要:提升科学性文献处理能力,高压缩率纳入全文档信息,生成摘要完整性与准确性更优,尤其在医学、物理等领域表现突出。

原创 和你一起学习的 2025-09-12 19:08 上海

Context Engineering(上下文工程)的关键一步

最近一段时间,Context Engineering(上下文工程)的热度已无需多言,而 Meta 超级智能实验室发布的首篇论文,便聚焦于该领域的核心议题——模型上下文智能压缩,展开了深度研究。

相信在开发 RAG与 Agent时,上下文太长导致输出效果崩掉,几乎做AI 应用人的家常便饭。

其具体体现有二:

长上下文导致了更高内存成本,模型的首 token 生成时间(TTFT)会随之呈二次方增加。

冗余计算严重:RAG 与 Agent 的上下文一般是多个检索段落的组合,段落间的关联几乎为零。但大模型的注意力机制会对所有token 间的关联做计算,导致了大量冗余计算。

在此背景下,Meta团队提出了REFRAG 框架,在仅保留核心内容的原始token情况下,对RAG提供的低相关chunk内容做智能压缩,从而在不损失性能的前提下,实现 30.85 倍 TTFT 加速、将 LLMs 上下文处理长度扩展 16 倍。

经过实测,该方案在 RAG、多轮对话、智能体及 Web 级检索等 高吞吐量、低延迟场景中表现尤为突出 。

01 

如何智能压缩上下文

以下是整个策略的核心流程图演示,整体可以分为三部分:

第一步:上下文分块与压缩

RAG 检索到的长文档,通常动辄几千上万 token,直接丢进 LLM 会让显存和计算成本爆炸。 REFRAG 的做法是:

这样做的好处是:LLM 不再处理每个原始 token,而是处理“压缩后的一整个块”。如果一个块里原来有 k 个 token,现在只用一个 embedding 来表示,那么输入长度就缩短了约 k倍,显著减少注意力计算量和显存占用。

第二步:选择性扩展与自回归保留

光压缩可能会丢失信息,尤其是对关键块(比如问题答案所在段落)。REFRAG 引入了一个 RL(强化学习)策略,用来动态决定:哪些块必须保留原始 token(不压缩),以保证信息完整。哪些块可以用压缩的embedding代替。

这样就能 兼顾准确性和效率。同时,因为 LLM 是自回归生成的(依赖前文 token),REFRAG 的方法保证了原始 token 仍能参与生成,不破坏上下文连续性。这对多轮对话等场景尤其重要。

第三步:高效推理与上下文扩展

REFRAG 还有两点优化:

整体结果来看,该方案在短上下文下,可以实现 k 倍的首 token 延迟(TTFT)加速;在长上下文下,加速比最高可达 k的平方 倍。同时,该方案还能把 LLM 的上下文长度扩展到 16 倍 以上。

02  

关键技术细节

REFRAG 的方法体系围绕 “让编码器与解码器高效协同处理长上下文” 展开,核心流程分为三个阶段:

1.编码器 - 解码器对齐

持续预训练(CPT) 以 “下一段预测任务” 为核心:每个训练样本含 s 个前序 token 和 o 个后续 token(共 T 个),将前 s 个输入编码器,其输出用于辅助解码器预测后 o 个 token。

目标是让解码器基于压缩上下文(编码器输出)的生成结果,尽可能接近基于完整上下文的结果,为下游任务(如 RAG)奠定基础。

2.CPT 的关键训练方案(保障对齐效果)

(1)重建任务:先冻结解码器,仅训练编码器和投影层 —— 让编码器输入 s 个 token 后,能生成让解码器准确重建出这 s 个 token 的嵌入。目的是确保编码器压缩信息损失最小、投影层能将嵌入转换为解码器可理解的格式,同时迫使解码器依赖输入的上下文记忆(而非自身参数)。完成后解冻解码器,正式启动 CPT。

(2)课程学习:因直接训练难度大(块长度 k 增加会导致 token 组合呈指数级增长),采用 “从简到难” 的训练策略:先让模型用单个块嵌入重建 k 个 token,再逐步增加块数量和重建长度;训练数据也从以简单任务为主,逐渐过渡到以复杂任务为主,帮助模型循序渐进掌握能力。

3.性能增强:选择性压缩与下游适配

(1)选择性压缩:引入 RL 策略,以 “下一段预测困惑度” 为负奖励(困惑度越高说明块越重要),决定保留哪些上下文块的原始形式(不压缩),仅压缩次要块;同时微调编码器和解码器,使其适配 “压缩 + 未压缩” 混合输入,兼顾效率与性能。

(2)下游适配:完成 CPT 和选择性压缩优化后,通过有监督微调(SFT)让模型适配具体下游任务(如 RAG、多轮对话)。

03  

关键效果与核心场景解读

Meta 团队在 Slimpajama(书籍、arXiv 领域)、PG19、Proof-Pile 等主流数据集,以及 RAG、多轮对话、长文档摘要等任务中对 REFRAG 进行了全面验证,其优势主要体现在效率提升、上下文扩展、场景适配三个维度。

基于以上能力, REFRAG 的核心落地场景主要有三:

(1)增强版 RAG:支持 Web 级高效检索

在 Web 级搜索等需处理大量检索结果的场景中,REFRAG 可 “以更低延迟纳入更多有效信息”:

延迟持平情况下:REFRAG 可处理 8 个检索段落(LLaMA 仅能处理 1 个),在 MMLU、BoolQ 等知识密集型任务中精度提升 1.5% 以上。

多段落处理场景中:处理 10 个检索段落时,TTFT 加速 5.26 倍,且在弱检索器(模拟真实场景中检索误差)下优势更明显。

(2)多轮对话:突破上下文窗口限制

传统 LLaMA 因 4K 上下文窗口限制,多轮对话中需截断历史信息,导致回答连贯性下降;REFRAG 无需扩展位置编码,通过压缩机制实现长对话记忆:

在 TopiOCQA、ORConvQA 等知识密集型多轮对话数据集上,面对 10 个检索段落 + 6 轮对话的长上下文,性能全面优于 LLaMA 微调模型,其中 ORConvQA 任务精度提升超 30%。

(3)长文档摘要:提升科学性文献处理能力

在 arXiv、PubMed 等长 scientific 文献摘要任务中,REFRAG 可通过高压缩率纳入全文档信息,生成摘要的完整性与准确性更优:

相同延迟下(解码器生成 token 数量一致),Rouge-1 指标较 LLaMA 提升 15%-20%,尤其在医学、物理等需精准提炼核心结论的领域表现突出。

尾声

模型上下文长度管理,只是Context Engineering 的议题之一,未来围绕提示工程、动态上下文生成、多模态上下文整合等重点话题,我们还将为大家带来更多更专业的解读。

如果有感兴趣的话题,欢迎评论区留言。

推荐阅读

全面测评LangChain vs LangGraph:谁是agent落地最优解

Embedding无敌?是做文档处理RAG最大的幻觉

一文读懂RAG优化的常见13大技巧

Word2Vec、 BERT、BGE-M3、LLM2Vec,embedding模型选型指南|最全

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

上下文工程 REFRAG框架 Meta AI应用 长上下文处理 效率提升 RAG 多轮对话 长文档摘要
相关文章