掘金 人工智能 10月10日 07:50
蚂蚁百灵发布万亿参数大模型Ling-1T,创新架构引领效率革命
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

蚂蚁集团百灵团队发布了其旗舰大语言模型Ling-1T,该模型拥有万亿参数,并采用了创新的Ling 2.0架构。Ling-1T被定位为“非思考模型”,强调快速响应和即时交互能力,通过MoE(混合专家)架构在处理任务时仅激活部分参数,实现了高效推理。该模型在训练中使用了FP8混合精度,是已知规模最大的FP8训练基座模型,显著提升了训练效率并节省了显存。此外,Ling-1T引入了Evo-CoT技术和创新的LPO优化方法及混合奖励机制,在数学、代码生成等任务上展现了SOTA性能。该模型已在Hugging Face和ModelScope开源,旨在推动AI生态的开放与普惠。

💡 **Ling-1T的“非思考”定位与MoE架构**:蚂蚁集团将Ling-1T定义为“非思考模型”,旨在实现快速响应和即时交互。其核心是Ling 2.0架构,采用MoE(混合专家)机制,使得万亿参数模型在处理具体任务时仅激活约500亿参数,从而在保证性能的同时极大提升了推理效率。

🚀 **FP8混合精度训练的工程突破**:Ling-1T在训练过程中全程采用FP8混合精度,是业界已知规模最大的FP8训练基座模型。这一技术不仅带来了显著的训练加速,还大幅节省了显存,为超大规模模型的商业化落地奠定了坚实基础,体现了蚂蚁在AI底层基础设施上的深厚积累。

🧠 **Evo-CoT与混合奖励机制提升推理能力**:为了增强模型的推理深度,Ling-1T引入了演进式思维链(Evo-CoT)技术,通过精细化调优提升了推理效果。同时,创新性地采用了“句子”为粒度的LPO优化方法,并结合“语法-功能-美学”的混合奖励机制,使得模型在代码生成等任务上不仅功能正确,还能兼顾可读性和美观性。

📊 **多项基准测试中的SOTA表现**:Ling-1T在多项复杂推理任务中取得了领先的SOTA(State-of-the-Art)成绩。例如,在AIME 2025数学竞赛基准上,以更少的Token消耗实现了优于Gemini-2.5-Pro的准确率,并在代码生成、专业数学和逻辑推理等领域展现了强大的实力。

🌐 **全面开源与普惠AI生态建设**:蚂蚁集团已将Ling-1T模型在Hugging Face和ModelScope平台全面开源,并提供API接入服务,鼓励全球开发者共同探索和应用。此举彰显了蚂蚁集团致力于构建开放、普惠AI生态的承诺,推动AI技术的广泛落地。

2025年10月9日,AI世界再次被一颗“重磅炸弹”点燃。蚂蚁集团百灵大模型团队正式发布了其Ling 2.0系列的首款旗舰模型——Ling-1T。这不仅仅是一个拥有万亿参数的通用大语言模型,它更代表着蚂蚁集团在大模型设计理念上的一次大胆创新和实践突破。它已全面开源,正等待着全球开发者共同探索其无限潜力。

“非思考”定位:速度与精准的完美结合

初听“非思考模型”,你或许会感到好奇。这并非 Ling-1T 不具备推理能力,而是蚂蚁集团对大模型家族的一种策略性划分。在百灵模型矩阵中,“Ling系列”被明确定义为“非思考模型”,其核心特点是响应速度快,适合即时交互任务。与之相对应的“Ring系列”则是“思考模型”,它们会进行更深度的、逐步的推理,擅长解决更复杂的问题。Ling-1T作为Ling系列旗舰,正是以“快、准、狠”的姿态,高效完成指令,避免不必要的冗余思考,从而在效率上遥遥领先。

MoE架构创新:万亿参数的智能激活术

Ling-1T的强大并非简单地依靠堆砌参数。其背后的核心是基于MoE(混合专家)的Ling 2.0架构。这是一个精妙的“智能激活术”——尽管模型总参数量高达1万亿,但在每次处理具体任务时,仅会激活其中约500亿参数。这如同一个拥有无数领域专家的智囊团,面对特定问题时,只会召集最对口的几位专家出谋划策,既能保证解决问题的深度与广度,又能极大提升决策效率。这种稀疏激活机制,使得Ling-1T在保持顶尖能力的同时,实现了前所未有的推理效率。

极致工程优化:FP8混合精度训练的里程碑

在训练细节上,Ling-1T更是展现了蚂蚁百灵深厚的工程功底。模型全程采用FP8混合精度训练。这不仅仅是技术参数的罗列,它代表着业界在超大规模模型训练效率上的一个重要里程碑。据称,Ling-1T是目前已知规模最大的FP8训练基座模型,它不仅带来了显著的训练加速,还大幅节省了显存,为万亿参数模型的商业化落地铺平了道路。这背后是蚂蚁集团在AI底层基础设施优化上持续投入的成果。

推理能力跃升:Evo-CoT与奖励机制的魔力

Ling-1T的卓越能力并非仅限于效率。在推理深度上,它引入了演进式思维链(Evo-CoT) 技术,通过“中训练+后训练”阶段的精细化调优,显著提升了模型的推理深度和效率。此外,在强化学习阶段,蚂蚁百灵团队创新性地提出了以 “句子”为粒度的LPO优化方法,并构建了独特的 “语法-功能-美学”混合奖励机制。尤其在代码生成等任务中,这不仅确保了代码的功能正确性,更兼顾了代码的可读性和视觉美感,让生成内容更贴近人类标准。

性能实证:SOTA表现的效率与精准

数据是最好的证明。Ling-1T在多项复杂推理基准测试中均取得了SOTA(State-of-the-Art) 表现。例如,在被誉为“AI奥数”的AIME 2025数学竞赛基准上,Ling-1T以平均约4000个Token的消耗,取得了70.42% 的惊人准确率。这不仅超越了需要消耗约5000个Token才能达到70.10%准确率的Gemini-2.5-Pro,更在效率与精准度之间,找到了一个令人信服的平衡点。它在代码生成(如LiveCodeBench、ArtifactsBench)、专业数学、逻辑推理等多个高难度任务上,均展现出开源万亿参数模型的领先实力。

落地应用与生态:智能编程的未来已来

Ling-1T的强大能力,使其在自动化开发、智能编程助手等场景具有巨大的落地潜能。想象一下,一个能够理解复杂自然语言指令,并将其转化为功能完备的代码,甚至自动生成视觉应用的AI助手,将如何彻底改变我们的工作方式。蚂蚁集团已将Ling-1T模型在Hugging Face和ModelScope平台全面开源,开发者还可以通过蚂蚁百宝箱平台进行在线体验和API接入。这不仅是一次技术发布,更是蚂蚁百灵对构建开放、普惠AI生态的承诺。

结语:从参数竞赛到效率革命

Ling-1T的发布,无疑标志着大模型技术发展重点,正从单纯的“参数竞赛”转向更为深刻的“效率革命”。它以创新的模型架构和训练技术,在保持高性能的同时,显著提升了推理效率,为AI技术在金融、教育、软件开发等更广泛的实际场景应用,打开了全新的可能性。Ling-1T,正引领我们走向一个“更高智商、更快思考”的AI新时代。


如果你也对最新的AI信息感兴趣或者有疑问 都可以加入我的大家庭 第一时间分享最新AI资讯、工具、教程、文档 欢迎你的加入!!!😉😉😉

公众号:墨风如雪小站

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Ling-1T 蚂蚁集团 百灵大模型 大语言模型 MoE架构 FP8训练 AI效率 开源模型 LLM Ant Group Bailing LLM Mixture of Experts FP8 Training AI Efficiency Open Source Model
相关文章