IT之家 10月16日 17:13
华为盘古 718B 大模型开源,性能与稳定性显著提升
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为盘古 718B 大模型正式在 GitCode 平台开源,新版本 openPangu-Ultra-MoE-718B-V1.1 在训练哲学上不堆数据,专注思考,总参数达 718B,激活参数 39B。该模型融合了“快思考”与“慢思考”模式,在 SuperCLUE 榜单中位列开源模型第三,数学、科学推理及代码生成等维度表现优异,幻觉控制得分高达 81.28。V1.1 版本在 Agent 工具调用能力、幻觉率控制(降至 3.85%)及模型稳定性上均有显著提升,并推出了 Int8 量化版本,显著降低显存占用和提升吞吐量。硬件要求为 Atlas 800T A2 (64GB, >32 卡)。

🚀 **卓越的性能与开源:** 华为盘古 718B 大模型 V1.1 版本已全面开源,包括模型权重和技术细节,在 SuperCLUE 榜单中荣获开源模型第三名。其不堆砌数据、专注思考的训练哲学使其在数学推理、科学推理、代码生成等核心维度表现突出,尤其在幻觉控制方面得分高达 81.28,展现了其在输出可靠性上的强大优势。

🧠 **融合“快慢思考”模式:** 该模型集成了“快思考”与“慢思考”两种能力,通过 `/no_think` 标记可切换,实现更高效、更智能的推理与决策。这种设计有助于在保证推理速度的同时,提升决策的准确性和深度,尤其在处理复杂任务时能发挥更大作用。

🔧 **增强的工具调用与稳定性:** 相比上一版本,V1.1 版本显著增强了 Agent 工具调用能力,并在 Tau-Bench 等多工具协同任务中表现亮眼。同时,通过“批判内化”机制,幻觉率大幅降低至 3.85%(快思考模式),模型综合表现与稳定性得到全面提升。

💾 **Int8 量化版本优化:** 新增的 Int8 量化版本将显存占用减少约一半,吞吐量提升 20%,而精度损失不足 1%。这一优化使得模型在资源受限的环境下也能高效运行,降低了部署门槛,并提高了推理效率。

IT之家 10 月 16 日消息,今年 9 月,华为盘古 718B 大模型凭借不堆数据、专注思考的训练哲学,在 SuperCLUE 榜单中一举冲至开源模型第三,成为业界焦点。

华为官方昨日宣布,openPangu-Ultra-MoE-718B-V1.1 正式在 GitCode 平台开源,模型权重与技术细节全面公开。

华为官方介绍称,openPangu-Ultra-MoE-718B-V1.1 是基于昇腾 NPU 训练的大规模混合专家(MoE)语言模型,总参数规模达 718B,激活参数量为 39B。该模型在同一架构下融合了“快思考”与“慢思考”两种能力,实现更高效、更智能的推理与决策。

在 9 月最新 SuperCLUE 榜单中,openPangu-718B 稳居开源模型总榜第三,在数学推理、科学推理、代码生成等六大核心维度均表现优异。尤其值得关注的是,其幻觉控制项得分高达 81.28,甚至超过部分闭源巨头,凸显出其在输出可靠性上的技术优势。

相比上一版本 openPangu-Ultra-MoE-718B-V1.0,V1.1 在 Agent 工具调用能力上显著增强,幻觉率进一步降低,模型的综合表现与稳定性也全面提升。

华为采用了业界先进的 Multi-head Latent Attention(MLA)、Multi-Token Prediction (MTP) 以及高稀疏比混合专家架构,并在此基础上引入多项创新设计,以实现更优的性能与训练效率:

本次开源的 V1.1 版本在多个关键维度实现显著提升:

IT之家附官方地址:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为盘古 大模型 开源 AI 自然语言处理 Huawei Pangu Large Language Model Open Source AI NLP
相关文章