IT之家 前天 19:29
华为云上线蚂蚁集团万亿参数大模型 Ling-1T
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为云宣布已将蚂蚁集团的万亿参数大模型 Ling-1T 上架至其 MaaS 平台。Ling-1T 作为百灵大模型系列的旗舰级“非思考”模型,拥有万亿参数且已开源。此次上架支持专属资源部署,可充分释放 Ling-1T 的能力。该模型基于 Ling 2.0 架构,在海量高质量语料上完成预训练,并支持 128K 超长上下文窗口。通过 Evo-CoT 技术,Ling-1T 在代码生成、软件开发、数学及逻辑推理等多项复杂推理任务上达到业界顶尖水平,兼顾推理效率与准确性。模型与华为云的 CloudMatrix384 超节点在架构、性能和部署上高度互补,能有效解决 MoE 架构的通信瓶颈,提供高吞吐量和低延迟推理。华为云 MaaS 平台已集成多款主流开源大模型,用户可通过 API 快速调用。

✨ **Ling-1T 万亿参数大模型上架华为云:** 蚂蚁集团的 Ling-1T 模型现已在华为云的大模型即服务 (MaaS) 平台上线,为用户提供了一个强大且已开源的先进 AI 模型。该模型拥有万亿参数,并支持专属资源部署,能够充分发挥其性能潜力。

🧠 **卓越的推理能力与长上下文处理:** Ling-1T 基于先进的 Ling 2.0 架构,在海量高质量数据上进行了预训练,并具备 128K 的超长上下文窗口。通过创新的 Evo-CoT 技术,该模型在代码生成、软件开发、专业数学及逻辑推理等复杂推理任务上取得了业界顶尖(SOTA)的表现,有效平衡了推理效率和准确性。

🚀 **与华为云 CloudMatrix384 超节点的协同优势:** Ling-1T 的 MoE(混合专家)架构与华为云 CloudMatrix384 超节点的高度互补性,能够克服大规模 MoE 模型在分布式部署中面临的通信瓶颈。通过全对等互连架构和零拷贝数据聚合技术,实现了超大规模专家并行计算的高效支持,为 Ling-1T 提供了高吞吐量和低延迟的推理能力。

☁️ **华为云 MaaS 平台赋能便捷 AI 应用:** 华为云 MaaS 平台集成了包括 Ling-1T 在内的多款业界主流开源大模型,并基于昇腾 AI 云服务进行了深度优化。用户无需处理复杂的硬件和部署问题,即可通过简单的 API 接口快速调用 LLM、多模态等模型服务,加速 AI 应用的开发与落地。

IT之家 10 月 18 日消息,华为中国今日发文宣布,蚂蚁集团万亿参数大模型 Ling-1T 上架华为云大模型即服务 MaaS 平台。Ling-1T 是百灵大模型系列的首款旗舰级“非思考”模型,拥有万亿参数,并已开源。华为中国表示,此次模型上架支持专属资源部署,可全面释放 Ling-1T 模型能力。

▲ 图源:华为中国官方公众号,后同

据介绍,万亿参数大模型 Ling-1T 每个 token 可激活约 50B 参数。模型基于先进的 Ling 2.0 架构,在超过 20T tokens 的高质量、高推理浓度语料上完成预训练,并支持 128K 的上下文窗口

通过“中训练 + 后训练”演进式思维链(Evo-CoT)技术,Ling-1T 在多项国际权威的复杂推理基准测试中(如代码生成、软件开发、专业数学及逻辑推理等)取得了业界顶尖(SOTA)表现,Ling-1T 在有限输出 token 条件下,于多项复杂推理基准中取得 SOTA 表现,展示出模型兼顾推理效率与准确性。

IT之家从华为中国获悉,Ling-1T 模型与 CloudMatrix384 超节点在架构、性能和部署上存在高度互补。Ling-1T 作为高效推理的模型,可利用 CloudMatrix384 超节点为大规模 MoE 模型提供的加速和优化,在实际应用中发挥出更强的性能,具体优势如下:

    MoE 架构与全对等互联:Ling-1T 模型采用 MoE(混合专家)架构。MoE 模型的核心在于稀疏激活机制,分布式部署时会产生大量 All-to-All 通信需求,而传统网络架构难以高效处理。CloudMatrix384 超节点通过全对等互连架构,高度契合 MoE 模型的通信密集型需求,有效避免通信瓶颈。

    专家并行与动态负载均衡:Ling-1T 模型由 256 个专家模块组成,模型推理时需激活约 50B 参数,推理过程会产生大量网络通信。CloudMatrix384 超节点通过超高速互联网络与基于内存语义的零拷贝数据聚合技术,有效突破大规模专家并行计算中的通信瓶颈,为超大规模语言模型推理提供高可靠、低延迟的端到端算力支持,从而在超节点上实现 Ling-1T 的高吞吐量和低延迟推理任务。

目前,华为云大模型即服务 MaaS 平台已预置 DeepSeek、Qwen3、Kimi 等业界主流开源大模型,并基于昇腾 AI 云服务完成深度适配与优化,模型部署和运行在云端,无需自行处理复杂的硬件和部署问题,用户可通过 API 接口可快速调用 LLM、多模态等模型服务。

相关阅读:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为云 蚂蚁集团 Ling-1T 大模型 MaaS AI Huawei Cloud Ant Group Large Model AI
相关文章