热点
"线性注意力" 相关文章
Beyond Standard LLMs
Ahead of AI 2025-11-04T13:25:21.000000Z
Learning Linear Attention in Polynomial Time
cs.AI updates on arXiv.org 2025-10-23T04:44:11.000000Z
Learning Linear Attention in Polynomial Time
cs.AI updates on arXiv.org 2025-10-23T04:44:11.000000Z
Every Attention Matters: An Efficient Hybrid Architecture for Long-Context Reasoning
cs.AI updates on arXiv.org 2025-10-23T04:19:03.000000Z
Efficient High-Accuracy PDEs Solver with the Linear Attention Neural Operator
cs.AI updates on arXiv.org 2025-10-21T04:27:18.000000Z
Enhancing Linear Attention with Residual Learning
cs.AI updates on arXiv.org 2025-10-01T05:59:47.000000Z
Autoregressive Image Generation with Linear Complexity: A Spatial-Aware Decay Perspective
cs.AI updates on arXiv.org 2025-07-03T04:07:36.000000Z
请记住 MiniMax M1:MiniMax 用自己的方法追上R1们,直奔最强Agent模型而去
硅星人Pro 2025-06-18T08:40:39.000000Z
MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然
智源社区 2025-04-17T13:17:52.000000Z
3700 次预训练寻找 “线性注意力” 非共识,MiniMax-01 开发者讲述 4 年探索
晚点LatePost 2025-03-09T16:15:42.000000Z
下一代 LLM 架构展望 | 奇绩潜空间活动报名
奇绩创坛 2025-03-02T17:01:52.000000Z
ICLR 2025 | 极性感知线性注意力!哈工深张正团队提出PolaFormer视觉基础模型
机器之心 2025-02-02T06:55:07.000000Z
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署
机器之心 2025-01-31T06:49:51.000000Z
一家游戏公司给 Attention 架构整了点大活
橘子汽水铺 2025-01-25T17:15:44.000000Z
晚点对话 MiniMax 闫俊杰:千万别套用移动互联网的逻辑来做 AI
晚点LatePost 2025-01-20T16:10:59.000000Z
MiniMax 深夜首次开源,400万长文本,全新架构,挑战Transformer
橘子汽水铺 2025-01-19T13:02:33.000000Z
激进架构,400万上下文,彻底开源:MiniMax-01有点“Transformer时刻”的味道了
硅星人Pro 2025-01-19T07:24:15.000000Z
社区供稿 | MiniMax-01 开源: 新架构开启 Agent 时代
智源社区 2025-01-18T14:45:57.000000Z
MiniMax开年甩出一张王炸
虎嗅 2025-01-18T12:52:32.000000Z
只有模仿没有创新?国产 AI 用行动打破质疑
36kr 2025-01-17T09:03:31.000000Z