oschina.net 11月10日 16:48
谷歌提出嵌套学习新方法,解决AI灾难性遗忘问题
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌在NeurIPS 2025上发布了一项名为“嵌套学习”(Nested Learning)的重磅研究,旨在解决机器学习中的“灾难性遗忘”难题。该方法颠覆了模型架构与优化算法分离的传统模式,将模型视为多层嵌套的优化问题。通过引入多时间尺度更新和连续记忆系统,嵌套学习能够有效保留新旧知识,使模型具备更强的持续学习能力。该研究的实验模型Hope在语言建模、常识推理和长上下文任务中表现出色,超越了Transformer和Mamba2等现有SOTA模型,为下一代自适应AI奠定了基础。

💡 **嵌套学习打破传统框架:** 该方法将模型架构与优化算法不再视为独立部分,而是将模型视为相互关联的多层嵌套优化问题。这种新颖的视角通过引入多时间尺度更新和连续记忆系统,使得模型在学习新知识的同时,能够有效地保留旧有知识,从而根本上解决了机器学习中的“灾难性遗忘”难题。

🧠 **模拟人脑的学习机制:** 嵌套学习允许模型中不同的组成部分以不同的时间尺度进行更新,这与人脑中不同神经区域以不同频率活动的现象非常相似。研究表明,Transformer等现有架构实际上是具有不同更新频率的线性层。这种统一的结构和多频率更新机制,为人工模型带来了更接近生物大脑的神经可塑性和持续学习能力。

🚀 **Hope架构的卓越表现:** 作为嵌套学习方法的概念验证,Hope架构展示了强大的自修改能力和无限循环学习层级。在语言建模、常识推理以及长上下文任务等多个关键领域,Hope的性能均显著优于Transformer和Mamba2等当前最先进的模型,显示了该范式在提升AI性能和缩小与人类持续学习能力差距方面的巨大潜力。

据谷歌官方消息,NeurIPS 2025 收录了该公司提出的一项重磅研究,其团队提出 Nested Learning(嵌套学习)新方法,旨在解决机器学习中的 “灾难性遗忘” 问题。

该方法打破模型架构与优化算法分离的传统框架,将模型视为相互关联的多层嵌套优化问题,通过多时间尺度更新和连续内存系统,实现新旧知识的协同保留。

嵌套学习允许大脑的每个组成部分进行多时间尺度的更新,同时表明诸如 Transformer 等众所周知的架构,实际上是具有不同更新频率的线性层。嵌套学习模型中的统一结构与多频率更新机制,与人脑的神经波动与神经可塑性结构十分相似。它使我们能够在人工模型中定义「多时间尺度更新」:每个学习组件可在不同频率下更新参数。通过定义「更新频率」,即每个组件参数被调整的频率,我们可以将这些优化问题组织成有序的层级结构。

作为概念验证的 Hope 架构,基于该方法设计而成,具备自修改能力与无限循环学习层级。

实验表明,Hope 在语言建模、常识推理及长上下文任务中,性能显著优于 Transformer、Mamba2 等现有最优模型。该范式为新一代自改进 AI 提供了坚实基础,有望缩小当前大模型与人类持续学习能力的差距。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

嵌套学习 灾难性遗忘 机器学习 人工智能 NeurIPS 2025 谷歌 Nested Learning Catastrophic Forgetting Machine Learning Artificial Intelligence Google
相关文章