IT之家 09月01日
美团发布LongCat-Flash-Chat,高性能MoE模型开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

美团正式发布并开源了其创新的LongCat-Flash-Chat大模型。该模型采用混合专家(MoE)架构,总参数560B,激活参数量约27B,实现了计算效率与性能的优化。通过“零计算专家”机制和跨层通道设计,LongCat-Flash-Chat在训练和推理效率上表现突出,能在H800上实现单用户100+ tokens/s的推理速度,且输出成本低至5元/百万token。模型在通用知识、智能体能力、编程和指令遵循等多个基准测试中均取得领先或优异成绩,尤其在智能体任务和复杂指令遵循方面优势明显。该模型已在Github和Hugging Face平台同步开源。

🚀 **创新MoE架构与高效激活**:LongCat-Flash-Chat采用了先进的混合专家(MoE)架构,拥有高达560B的总参数,但通过“零计算专家”机制,每个token仅激活18.6B至31.3B(平均27B)参数,实现了计算资源的按需分配和高效利用,大幅提升了计算效率。

⚡ **卓越的训练与推理性能**:得益于优化的架构设计(如跨层通道)和定制化底层优化,LongCat-Flash-Chat的训练周期缩短至30天,并在H800上实现了超过100 tokens/s的单用户推理速度,同时将输出成本降低至5元/百万token,展现了极高的性价比。

🧠 **多领域基准测试领先**:在通用知识方面,该模型在ArenaHard-V2和MMLU等基准测试中表现优异,成绩可与国内领先模型媲美。更值得一提的是,在智能体(Agentic)能力方面,LongCat-Flash-Chat在τ2-Bench和VitaBench等复杂场景测试中均展现出突出优势,位列第一,显示了其在处理复杂任务和工具使用方面的强大能力。

💻 **编程与指令遵循表现突出**:在编程能力方面,LongCat-Flash-Chat在TerminalBench和SWE-Bench-Verified等基准测试中取得了不错的成绩。在指令遵循任务上,模型在中英文各类高难度指令集上表现尤为出色,在IFEval、COLLIE和Meeseeks-zh等测试中均获得第一或最佳成绩,证明了其强大的理解和执行能力。

IT之家 9 月 1 日消息,美团今日正式发布 LongCat-Flash-Chat,并同步开源。

LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts,MoE)架构,总参数 560B,激活参数 18.6B~31.3B(平均 27B),实现了计算效率与性能的双重优化。

LongCat-Flash 模型在架构层面引入“零计算专家(Zero-Computation Experts)”机制,总参数量 560B,每个 token 依据上下文需求仅激活 18.6B~31.3 B 参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用 PID 控制器实时微调专家偏置,将单 token 平均激活量稳定在约 27B。

▲ LongCat-Flash 架构图

此外,LongCat-Flash 在层间铺设跨层通道,使 MoE 的通信和计算能很大程度上并行,提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash 在 30 天内完成训练,并在 H800 上实现单用户 100+ tokens / s 的推理速度。LongCat-Flash 还对常用大模型组件和训练方式进行了改进,使用了超参迁移和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性。

针对智能体(Agentic)能力,LongCat-Flash 自建了 Agentic 评测集指导数据策略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了更好的智能体能力。

通过算法和工程层面的联合设计,LongCat-Flash 在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,LongCat-Flash 在 H800 上达成了 100 tokens / s 的生成速度,在保持极致生成速度的同时,输出成本低至 5 元 / 百万 token

根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat 在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。并且,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。

目前,LongCat-Flash-Chat 在 Github、Hugging Face 平台同步开源。IT之家附开源地址:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

美团 LongCat-Flash-Chat 大模型 AI MoE 开源
相关文章