RWKV元始智能 10月09日 12:41
RWKV-8预告:ROSA机制引领长文本处理新篇章
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

RWKV团队发布了RWKV-8(代号Heron)的预告,核心亮点是其全新的长文本处理机制ROSA(蔷薇)。ROSA旨在解决当前长文本处理算法的不足,提供真实且无妥协的高效性能,实现“永不遗忘,永能召回”。与现有方法不同,ROSA被描述为一个深度且富有内涵的算法,预示着Attention机制的局限性,并可能成为长文本处理的“正解”。此外,RWKV-7 7B模型在单块5090显卡上已实现10000+ token/s的解码速度,并且该纯RNN架构保证了恒定的显存占用和匀速的性能表现,展现了巨大的优化潜力。

✨ **ROSA机制革新长文本处理:** RWKV-8(代号Heron)引入了名为ROSA(蔷薇)的全新机制,旨在彻底改变长文本处理的效率和性能。与现有算法的拼凑感不同,ROSA被定位为一个深度且内涵丰富的算法,有望成为解决长文本问题的“正解”,并标志着Attention时代的落幕。

🚀 **“永不遗忘,永能召回”的性能承诺:** ROSA机制的核心优势在于其能够实现“永不遗忘,永能召回”的特性,这意味着模型在处理长序列信息时,能够更有效地记忆和检索早期信息,从而在需要时精确调用,解决长文本中的信息丢失或干扰问题。

⚡ **RWKV-7 7B的卓越解码速度:** 在ROSA机制正式推出之前,RWKV-7 7B模型已在单块NVIDIA 5090显卡上实现了超过10000 token/s的解码速度(fp16精度,960路并发),并且在320路并发下也能达到9500 token/s。这得益于其纯RNN架构,确保了恒定的显存占用和匀速的性能,展现了巨大的优化空间。

🔄 **纯RNN架构的优势:** 作为纯RNN模型,RWKV系列在长文本处理上具备天然优势,其性能表现是匀速且恒定的,不会随着序列长度的增加而显著下降,显存占用也保持稳定,这对于需要处理海量数据的应用场景尤为关键。

原创 PRNG Bo 2025-10-09 11:55 广东

ROSA永不遗忘,永能召回。RWKV-7 7B满血fp16在单5090解码10000+ token/s。

💡Tips

转自知乎用户 PENG Bo,原文链接:

https://zhuanlan.zhihu.com/p/1959381858727998111

本文接上篇:理解LLM系列:预告RWKV-8,高效解决RNN长文本问题

RWKV-8代号是Heron鹭(H是第8个字母)。

RWKV-8替代attention的新机制,名为ROSA蔷薇,实现真实无妥协的高效长文本性能。ROSA永不遗忘,永能召回。

关于ROSA,目前能透露的情报是:

常见的“改进长文本性能算法”都有拼凑感,但ROSA与它们都完全不同。

ROSA是一个有深度有内涵的算法。当你看到ROSA,你就会觉得,这就是正解。

那么ROSA是哪四个单词的首字母缩写?欢迎大家猜想。

Attention时代,确实该落幕了。

另外感谢RWKV社区(PetitLegumeChien和Blealtan以及其它成员)的持续优化,现在RWKV-7 7B满血fp16在单5090解码达到10000+ token/s(此时是960路并发。另外在320路并发也可达9500 token/s),且还有巨大优化空间:

Demo代码:在 https://github.com/MollySophia/Albatross/tree/fp16 运行 demo2.py。

因为这是纯RNN,永远匀速,永远恒定显存占用。

相关阅读:RNN的正确用法:大bsz才是关键(多agent,高并发)

关注我们:

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

RWKV RWKV-8 ROSA 长文本处理 RNN AI 深度学习 Heron LLM Long Text Processing Artificial Intelligence Deep Learning
相关文章