热点
关于我们
xx
xx
"
灾难性遗忘
" 相关文章
Random Initialization of Gated Sparse Adapters
cs.AI updates on arXiv.org
2025-11-05T05:31:00.000000Z
GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation
cs.AI updates on arXiv.org
2025-11-05T05:18:37.000000Z
Thinking Machine新研究刷屏!结合RL+微调优势,小模型训练更具性价比了
智源社区
2025-10-29T07:36:31.000000Z
Explaining Robustness to Catastrophic Forgetting Through Incremental Concept Formation
cs.AI updates on arXiv.org
2025-10-29T04:23:22.000000Z
Knowledge-guided Continual Learning for Behavioral Analytics Systems
cs.AI updates on arXiv.org
2025-10-28T04:14:32.000000Z
Meta拆掉AI持续学习路上的最大炸弹,“微调”又有了一战之力
36kr-科技
2025-10-27T08:25:09.000000Z
RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging
cs.AI updates on arXiv.org
2025-10-24T04:28:18.000000Z
Continual Knowledge Adaptation for Reinforcement Learning
cs.AI updates on arXiv.org
2025-10-23T04:10:46.000000Z
Continual Knowledge Adaptation for Reinforcement Learning
cs.AI updates on arXiv.org
2025-10-23T04:10:46.000000Z
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心
2025-10-21T08:56:03.000000Z
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心
2025-10-21T08:56:03.000000Z
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心
2025-10-21T06:37:50.000000Z
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心
2025-10-21T06:37:48.000000Z
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心
2025-10-21T06:37:48.000000Z
STABLE: Gated Continual Learning for Large Language Models
cs.AI updates on arXiv.org
2025-10-21T04:20:51.000000Z
Continual Learning via Sparse Memory Finetuning
cs.AI updates on arXiv.org
2025-10-20T04:11:52.000000Z
Continual Learning via Sparse Memory Finetuning
cs.AI updates on arXiv.org
2025-10-20T04:11:52.000000Z
大语言模型的遗忘也许是一个悖论?清华团队揭示Unlearning技术的两难困境
MIT 科技评论 - 本周热榜
2025-10-15T10:52:12.000000Z
大语言模型的遗忘也许是一个悖论?清华团队揭示Unlearning技术的两难困境
MIT 科技评论 - 本周热榜
2025-10-15T10:52:12.000000Z
大语言模型的遗忘也许是一个悖论?清华团队揭示Unlearning技术的两难困境
DeepTech深科技
2025-10-14T09:13:30.000000Z