36kr-科技 10月14日 15:29
大模型自我更新框架SEAL,自主学习优化模型权重
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MIT提出了一种名为SEAL(Self-Adapting LLMs)的新型强化学习框架,赋予大模型自我更新和优化的能力。该框架通过内外两层嵌套的学习机制,让模型能自主生成微调数据和自我更新指令,从而在无需人工干预的情况下更新模型权重、获取新知识或适应新任务。SEAL在知识注入和小样本学习任务中展现出优越性能,甚至超越了GPT-4.1生成的合成数据,证明了其强大的自我学习和进化能力。

💡 SEAL框架的核心在于其内外两层嵌套的学习机制,赋予大模型自主学习和自我更新的能力。外部循环负责接收新信息并生成“self-edit”指令,指导模型如何更新自身;内部循环则根据这些指令执行参数更新,进行小规模微调。这种机制使得模型能够设计自己的训练流程、构造训练数据,并持续优化学习策略,从而实现高效的知识整合和任务适应。

🧠 在知识注入实验中,SEAL框架显著提升了Qwen2.5-7B模型处理新知识的能力。通过自主生成微调数据,SEAL方法使模型在回答新段落相关问题时的准确率从32.7%提升至47.0%,优于仅用原文微调或使用GPT-4.1生成数据的方案,显示了其强大的知识整合潜力。

🚀 SEAL在小样本学习任务中也表现出色,LLaMA-3.2-1B-Instruct模型在ARC-AGI数据集上的任务成功率达到了72.5%。该框架通过生成训练配置并执行LoRA微调,使模型能够快速适应新任务,远超固定few-shot提示或随机采样策略,体现了其优秀的任务适应能力。

🛠️ SEAL框架采用ReSTEM(Reinforcement Learning with Sampled Trajectories and Expert Mimicry)作为其强化学习方法,这是一种非传统的策略梯度方法。它通过行为克隆和过滤采样,保留带来性能提升的self-edit指令,并以此对生成策略进行有监督微调,从而实现更稳定、更高效的模型学习过程,使模型“学会如何让自己学得更好”。

大模型终于学会更新自己了!

MIT提出一种新的强化学习框架,让模型生成微调数据和自我更新指令,实现模型权重的更新。

无需人工参与,模型就可以自动进行梯度更新,自主学习获取新知识或适应新任务。

该框架名为SEAL(Self-Adapting LLMs),是一种内外两层嵌套的学习机制。

这种机制下,会根据更新后的模型在任务上的表现计算奖励,进一步优化自我更新指令的生成策略。

SEAL首次在权重层面赋予了大模型自我驱动的更新能力,摆脱了完全依赖外部监督数据的局限。

模型自动学习知识更新策略

SEAL在论文中通过两个主要实验任务验证其效果,分别是知识注入(knowledge incorporation)和小样本学习(few-shot learning)。

这两类任务分别对应模型进化中的两种基本情境——记住新知识,以及快速适应新任务。

知识注入

在知识注入实验中,研究者使用了Qwen2.5-7B模型和SQuAD数据集中的段落及对应问题。

每轮训练开始时,模型接收到一个新的段落作为输入上下文,但不会看到与之配套的问题答案。

模型首先根据这段输入生成训练数据,然后使用LoRA进行一次小规模微调,该过程仅基于生成后的数据,不包括原始段落或问题。

微调完成后,模型会在下游任务上接受评估,需要在没有原始段落作为输入的情况下,回答多个与该段落相关的问题。

实验对比了以下几种方案:

在单段落场景下,Qwen原始模型的准确率为32.7%,使用原文微调提升至33.5%;加入GPT-4.1合成数据后达到46.3%;而使用SEAL方法进行微调后,准确率进一步提升至47.0%。

这说明SEAL不仅优于使用原文或非优化的生成数据,甚至能超越由GPT-4.1生成的高质量提示数据,表现出较强的知识整合能力。

此外,研究者还使用了篇幅更长的段落进行了测试,包括200段落和完整SQuAD验证集(2067段落),SEAL在200段落设置下达到了58.2%的准确率,显著高于未优化版本,说明SEAL可以泛化到更大规模的数据整理任务。

小样本学习

在小样本学习实验中,研究者使用LLaMA-3.2-1B-Instruct模型和ARC-AGI数据集中经过筛选的任务子集。

ARC任务通常包括若干个示例的图形变换(以文本形式表达)输入输出对,目的是从中学习规律并对一个新输入做出预测。

SEAL接收到这些示例后,不会直接推理,而是生成一个训练配置,并执行LoRA微调,随后模型在该任务的测试输入上进行预测。

结果显示,SEAL训练出的策略使得任务成功率达到72.5%,远高于仅使用固定few-shot提示的0%,也明显优于随机采样策略下的20%。

虽然不及人工设定的最优策略(Oracle TTT)的100%,但作为由模型自主摸索出的学习路径,这一成功率已充分说明SEAL具备较强的任务适应能力。

那么,SEAL框架是如何工作的呢?

双循环系统自动生成训练指令

SEAL的工作过程简单说就是读取新信息,用自己的语言重写,并进行梯度更新,实际上是进行自主学习。

结构上,SEAL的整个系统由两部分构成——一个强化学习驱动的外部循环和一个用于执行参数更新的内部循环

在外层,模型面对一个新的输入上下文(比如一段文本或任务示例),首先生成一条self-edit指令。

这是一段自然语言组成的“微调指令”,描述模型应如何基于当前输入来更新自己,包括提取什么样的信息、生成哪些训练样本、使用什么训练参数(例如学习率、训练轮数、损失函数策略)等。

这一行为本质上是模型在设计自己的训练流程。

随后进入内层,模型按照self-edit的指令,执行一次微调。

这一步会构造合成训练数据,可能包括推理句、问答对、重述信息,或者针对任务的具体样本变换,并以指定的优化策略进行权重更新。

更新后得到的新模型将被立即用于解决相应任务(比如回答相关问题或完成预测),评估其效果,得出一个表现评分。

这个评分(reward)反映了该self-edit对性能提升的效果,进而用于生成下一步的self-edit策略。

为了完成这个策略优化,SEAL使用的是一种非传统的强化学习方法,称为ReSTEM(Reinforcement Learning with Sampled Trajectories and Expert Mimicry)。

其关键思路不是直接对reward进行梯度回传,而是采取一种行为克隆+过滤采样的方式。

具体来说,在每个上下文中,模型会生成多个self-edit候选,每个候选会被分别应用,执行一次微调,得到一个新模型。

然后会对新模型在任务上的表现进行评估,只有带来性能提升的self-edit才会被保留。

接着用这批“有效”的self-edit作为训练数据,对生成策略进行一次有监督微调(行为克隆),然后反复迭代,使得模型越来越倾向于生成有效的self-edit。

ReSTEM本质上是一个期望最大化过程,相比PPO等策略梯度方法,ReSTEM结构更简单,训练更稳定,同时也更适用于大模型的生成行为学习任务。

通过这一套机制,SEAL实现了“学会如何让自己学得更好”。

模型不仅能通过已有数据完成任务,更能主动设计训练方式、构造训练数据,并不断通过反馈优化这种“自学习”的策略。最终表现为一种具备自我编辑与持续进化能力的语言模型结构。

论文地址:https://arxiv.org/abs/2506.10943

项目主页:https://jyopari.github.io/posts/seal

本文来自微信公众号“量子位”,作者:克雷西,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 强化学习 自我更新 SEAL LLM Reinforcement Learning Self-Updating MIT
相关文章