深度求索近期发布了实验性模型DeepSeek-V3.2-Exp,引发多家国产芯片厂商的积极响应。华为昇腾、寒武纪、海光信息等厂商迅速完成了对该模型的适配与优化,展现了国产AI软硬件协同发展的趋势。华为昇腾基于vLLM/SGLang框架实现了0day支持,并开源了相关代码。寒武纪则通过DeepSeek Sparse Attention机制,结合自身计算效率,降低了长序列场景的训推成本。海光信息DCU实现了无缝适配与深度调优,验证了其通用性和生态兼容性。此次适配加速了国内AI产业的发展,深度求索也同步更新了官方应用并大幅降低了API调用成本,鼓励用户体验测试。
🚀 **DeepSeek-V3.2-Exp模型发布与快速适配:** 深度求索推出了其实验性大模型DeepSeek-V3.2-Exp,这一举动迅速获得了多家国内领先芯片厂商的支持。华为昇腾、寒武纪、海光信息等厂商在模型发布初期即完成了适配工作,体现了国产AI生态的快速响应能力和软硬协同发展趋势。华为昇腾更是基于vLLM/SGLang等推理框架,实现了对DeepSeek-V3.2-Exp的0day支持,并公开了所有推理代码和算子实现,进一步推动了开源社区的发展。
💡 **技术优势与成本效益:** 寒武纪宣布,通过结合DeepSeek Sparse Attention机制和自身极致的计算效率,能够大幅度降低长序列场景下的模型训练和推理成本。海光信息则展示了其DCU在DeepSeek-V3.2-Exp上的优异性能,并验证了其高通用性、高生态兼容度和自主可控的技术优势。这些技术进展预示着国产大模型和国产芯片在构建统一生态方面正取得显著进展,有望加速国内AI产业的整体发展。
💰 **用户体验优化与成本降低:** 深度求索同步更新了官方App、网页端和小程序至DeepSeek-V3.2-Exp版本,并大幅度降低了API调用价格,降幅超过50%。这一举措旨在鼓励更广泛的用户群体进行体验测试,收集反馈意见,从而进一步优化模型和服务。API成本的显著降低将极大地促进开发者在各类应用中集成和使用DeepSeek模型,推动AI技术的普及和创新应用。
日前深度求索正式发布DeepSeek-V3.2-Exp模型。尽管这是一个实验性(Experimental)的版本,还是吸引了多家芯片厂商集体宣布Day 0适配。据华为计算微信公众号消息,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。
寒武纪在官方微信号宣布,已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配。依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。
海光信息宣布,其DCU实现对DeepSeek-V3.2-Exp的无缝适配+深度调优,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。
此前国泰海通证券研究指出,国产大模型与国产芯片正朝着软硬协同的统一生态演进,国内AI产业的发展有望进一步加速。
ps.“Day 0 适配” 是软件开发和技术适配领域的一个术语,通常指在某个新系统、新平台、新设备或新功能正式发布的第一天(Day 0) 就完成适配工作,确保相关软件、服务或功能能与新环境无缝兼容并同步可用。
深度求索表示,目前,官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时API大幅度降价,欢迎广大用户体验测试并反馈意见。
据悉,在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上。
