cnBeta全文版 09月30日 15:26
DeepSeek-V3.2-Exp模型发布,国产芯片厂商积极适配
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

深度求索近日发布了实验性模型DeepSeek-V3.2-Exp,引发多家芯片厂商的Day 0适配。华为昇腾、寒武纪、海光信息等厂商均宣布已快速完成适配部署,并开源相关代码。华为昇腾基于vLLM/SGLang框架实现0day支持;寒武纪结合其计算效率优化长序列场景成本;海光DCU则展现了优异性能和生态兼容性。此次软硬协同发展,标志着国内AI产业加速演进。同时,DeepSeek-V3.2-Exp已更新至官方App、网页端和小程序,API调用成本大幅降低。

🚀 **DeepSeek-V3.2-Exp模型发布与即时适配**:深度求索正式推出了其最新实验性模型DeepSeek-V3.2-Exp。该模型的发布迅速获得了多家国产芯片厂商的积极响应,实现了“Day 0 适配”,即在模型发布的第一天就完成了兼容性支持和部署。这体现了国内AI生态在模型与硬件协同方面的快速迭代能力。

💡 **多家国产芯片厂商的深度参与**:华为昇腾、寒武纪、海光信息等厂商都宣布已完成对DeepSeek-V3.2-Exp的适配。华为昇腾通过vLLM/SGLang等推理框架实现了快速部署和0day支持,并开源了推理代码。寒武纪利用其高效计算能力,结合DeepSeek Sparse Attention机制,显著降低了长序列场景下的训练和推理成本。海光信息则通过DCU实现了无缝适配和深度调优,展示了其硬件的高通用性、生态兼容性和自主可控性。

📈 **软硬协同促进AI产业加速发展**:此次国产大模型与国产芯片的软硬协同演进,被视为国内AI产业发展的重要驱动力。这种一体化的生态构建,有助于提升整体AI解决方案的性能和效率,加速AI技术的落地应用,并巩固国内在AI领域的技术优势和自主可控能力。

💰 **API降价与用户体验优化**:DeepSeek-V3.2-Exp模型已同步更新至官方App、网页端及小程序,为用户提供便捷的访问渠道。更重要的是,官方大幅度降低了API调用成本,开发者使用DeepSeek API的费用将降低50%以上,这极大地降低了AI应用的开发门槛,鼓励更多开发者进行测试和反馈,进一步推动模型的迭代和优化。

日前深度求索正式发布DeepSeek-V3.2-Exp模型。尽管这是一个实验性(Experimental)的版本,还是吸引了多家芯片厂商集体宣布Day 0适配。据华为计算微信公众号消息,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。

寒武纪在官方微信号宣布,已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配。依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。

海光信息宣布,其DCU实现对DeepSeek-V3.2-Exp的无缝适配+深度调优,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。

此前国泰海通证券研究指出,国产大模型与国产芯片正朝着软硬协同的统一生态演进,国内AI产业的发展有望进一步加速。

ps.“Day 0 适配” 是软件开发和技术适配领域的一个术语,通常指在某个新系统、新平台、新设备或新功能正式发布的第一天(Day 0) 就完成适配工作,确保相关软件、服务或功能能与新环境无缝兼容并同步可用。

深度求索表示,目前,官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时API大幅度降价,欢迎广大用户体验测试并反馈意见。

据悉,在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-V3.2-Exp AI模型 国产芯片 昇腾 寒武纪 海光信息 软硬协同 API降价
相关文章