调研纪要 10月01日 02:51
智谱GLM-4.6发布,国产大模型与算力协同迈入新阶段
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期,国产大模型领域动作频频。智谱AI于9月30日发布并开源新一代大模型GLM-4.6,在Agentic Coding等核心能力上实现大幅跃升,号称国内最强coding模型,整体性能超越DeepSeek最新发布的V3.2-Exp。此前DeepSeek已大幅降价并适配寒武纪、昇腾国产算力。GLM-4.6在代码生成、长上下文处理、智能体应用等方面全面升级,与Claude Sonnet 4对齐,并成为首个在国产芯片上实现FP8+Int4混合量化推理部署的模型。此次更新标志着国产大模型在性能提升的同时,正与国产算力进行深度协同,共同构建自主可控的AI技术生态,加速AI应用落地。

🚀 **GLM-4.6性能再突破,对标国际顶尖水平**:智谱AI发布的GLM-4.6在代码生成能力上已全面对齐Claude Sonnet 4,成为国内领先的Coding模型。在8大权威基准测试中,GLM-4.6表现亮眼,通用能力稳居国产模型首位。同时,模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,整体性能超越DeepSeek最新模型DeepSeek-V3.2-Exp,进一步提升了国产大模型在全球竞争格局中的地位。

💰 **DeepSeek大幅降价与国产算力深度绑定**:DeepSeek在发布V3.2实验版的同时,大幅降低了API价格,以75%的降幅满足应用推广需求。更重要的是,V3.2版本明确适配寒武纪、昇腾等国产AI芯片,显示出DeepSeek模型更新与国产算力正进行更早期的有机整合,不再是模型发布后再进行适配,而是走向软硬件协同设计的新阶段。

💡 **软硬件协同创新,加速国产AI生态构建**:此次DeepSeek和智谱的更新,其核心意义在于通过软硬协同设计支持国产算力。寒武纪和摩尔线程等厂商已完成对DeepSeek和GLM-4.6等主流大模型的适配,标志着国产GPU已具备与前沿大模型协同迭代的能力。这种芯片和算法的联合创新,以软硬件协同的方式,不仅优化了模型训练和推理的性能与效率,也为构建更加开放、可控、高效的人工智能基础设施奠定了基础。

🔗 **国产AI技术链条打通,应用落地加速**:从设计、流片到应用,中国AI算力自主可控的链条正加速打通。随着云厂商Capex投入加速,GPU厂商技术代差缩小,以及先进Fab产线的扩产规划,国内大模型有了坚实的国产算力底座。GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业和公众提供服务,模型大幅降本也为AI应用的加速落地创造了有利条件。

2025-09-30 18:37 广东

事件:2025年9月30日,智谱正式发布并开源新一代大模型 GLM-4.6,在 Agentic Coding 等核心能力上实现大幅跃升。这是继 DeepSeek-V3.2-Exp 与 Claude Sonnet 4.5 之后,国庆节前业界的又一重大技术发布,号称国内最强coding模型整体性能超越DeepSeek昨日发布的最新模型DeepSeek-V3.2-Exp。

1、先说说昨天的DeepSeek

继22号发布V3.1-Terminus,DeepSeek在V3.1基础上引入了新的优化算法DSA(稀疏注意力),更新发布了V3.2实验版。两个重点:

- 大幅度降价。此前有AI应用公司认为,tokens需要降价75%,才能适应应用推广,DS一把降价到位。

- 明确适应适配寒武纪、昇腾,算力针对性优化。

体感改变:1)性能上和V3.1-Terminus差距不大,V3.2重点「不在优化性能」,官方给V3.2的定位是“迈向新一代架构的中间步骤”。2)由于DSA加持,V3.2 训推效率大幅提高 ,再次使得API输入/输出成本降低 50% /75%以上【推理成本】,【训练成本】这次没给。依然走降本增效。3)虽然不像V3.1直接指出针对“下一代国产芯片设计”,但是寒武纪、昇腾DAY0都实现了对V3.2的支持,可见DS模型更新与国产算力绑定越来越深刻,不再是先出模型、再搞适配,而是与国产算力更早期的有机整合 。

技术改变:大的模型迭代方向依然没变,DSA优化的还是Attention,总之就是想尽办法让长文本的「训推成本降低」,还「不太损失模型性能」。“精耕细作”是国产模型强项。

影响:也是显而易见的,1)寒武纪、昇腾DAY0适配,国产算力将在国内模型训推中承担越来越重要的角色。另外,这次DS又引入了一种新的语言Tile,来简化高性能 GPU/CPU 内核的开发。虽然也同时开源了CUDA版本算子,但是「官方更建议使用Tile,而Tile是清华提出的,总之是一直在努力摆脱CUDA 」。2)再次大幅降低推理成本,应用端终将受益将会受益。

2、Deepseek降价,智谱提质

在公开基准测试和真实编程任务中,智谱GLM-4.6 的代码生成能力已全面对齐 Claude Sonnet 4,成为目前国内最强的 Coding 模型。同时,模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,整体性能超越 DeepSeek 最新模型 DeepSeek-V3.2-Exp。作为开源模型,GLM-4.6 目前是全球开源生态中性能最强的通用大模型之一,进一步提升了国产大模型在全球竞争格局中的地位。

智谱官方宣布,GLM-4.6 已在寒武纪领先的国产 AI 芯片上实现 FP8+Int4 混合量化推理部署,这也是首次在国产芯片上投产的 FP8+Int4 模型-芯片一体化解决方案。在保持模型精度不变的前提下,该方案大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径和示范意义。

与此同时,摩尔线程基于 vLLM 推理框架 完成了对 GLM-4.6 的适配,新一代 GPU 可在 原生 FP8 精度 下稳定运行模型,充分验证了 MUSA 架构 及全功能 GPU 在生态兼容性和快速适配能力方面的优势。

具体来看,智谱GLM-4.6对比GLM-4.5的提质之处在于:

3、生态建设+联合创新,国产AI生态进入新阶段

Deepseek和智谱的这次更新,最大的意义在于软硬协同设计支持国产算力。

大模型软件生态建设:寒武纪支持以DeepSeek为代表的所有主流开源大模型。

芯片和算法的联合创新:以软硬件协同的方式,对DeepSeek系列模型进行了深入的软硬件协同性能优化,达成了业界领先的算力利用率水平。

针对本次的DeepSeek-V3.2-Exp新模型架构,寒武纪通过Triton算子开发实现了快速适配,利用BangC融合算子开发实现了极致性能优化,并基于计算与通信的并行策略次达成了业界领先的计算效率水平。依托DeepSeek-V3.2-Exp带来的全新DeepSeek Sparse Attention机制,叠加公司芯片的计算效率,可大幅降低长序列场景下的训推成本,共同为客户提供极具竞争力的软硬件解决方案。

寒武纪与摩尔线程完成对智谱GLM-4.6 的适配,标志着国产 GPU 已具备与前沿大模型协同迭代的能力,加速构建自主可控的 AI 技术生态。GLM-4.6 搭配国产芯片的组合将率先通过 智谱 MaaS 平台面向企业与公众提供服务,释放更广泛的社会与产业价值。

国产算力的迅速适配彰显国内AI软硬件实力,模型大幅降本有利于AI应用加速落地,day 0适配和优化彰显了国产芯片的生态建设和技术积累成果,芯片和算法的联合创新,软硬件协同方式将进一步加速国内AI产业发展。未来,国产原创的GLM系列大模型与国产芯片的深度协同,将在模型训练和推理环节持续推动性能与效率的双重优化,构建更加开放、可控、高效的人工智能基础设施。

4、国产模型芯片国庆献礼

中国科技和AI领域正迎来重大转变,以阿里、百度等为代表的云厂商Capex投入加速,海光信息、寒武纪等GPU厂商缩小技术代差同时业绩不断释放,以中芯南方为代表的先进Fab产线在2026年预计将有持续7nm扩产规划,整个算力自主可控链条正迎来加速阶段,从设计-流片-应用所有环节都打通了,我们的大模型也有了国产算力底座。

半个月前,花旗说中国芯片行业可能在国庆假期传出利好消息,我们拭目以待...

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

智谱AI GLM-4.6 DeepSeek DeepSeek-V3.2-Exp 大模型 AI 中文大模型 Coding模型 国产算力 寒武纪 昇腾 摩尔线程 软硬件协同 AI生态 MaaS
相关文章