深度求索正式发布了实验性模型DeepSeek-V3.2-Exp,该模型迅速获得了多家国产芯片厂商的支持。华为昇腾、寒武纪和海光信息均宣布在第一时间完成了对该模型的适配与优化,并开源了相关推理代码和算子实现。华为昇腾通过vLLM/SGLang框架实现0day支持;寒武纪利用DeepSeek Sparse Attention机制结合自身计算效率,降低长序列成本;海光信息则通过DCU实现了无缝适配与深度调优,展现了其高通用性、生态兼容度和自主可控优势。此次软硬协同发展预示着国内AI产业的加速。同时,DeepSeek-V3.2-Exp模型已更新至官方App、网页端和小程序,API调用成本降低超过50%。
🚀 **DeepSeek-V3.2-Exp模型发布与快速适配**:深度求索推出的实验性模型DeepSeek-V3.2-Exp,在发布当天即获得了华为昇腾、寒武纪、海光信息等多家国产芯片厂商的“Day 0适配”支持。这标志着国产大模型与国产芯片在生态协同上的重要进展,能够快速响应并支持最新的AI模型部署。
💡 **软硬协同的技术优势与成本效益**:各芯片厂商通过不同的技术路径实现了对DeepSeek-V3.2-Exp的优化。华为昇腾利用vLLM/SGLang框架实现0day支持;寒武纪结合DeepSeek Sparse Attention机制提升长序列处理效率,显著降低训推成本;海光信息通过DCU实现深度调优,验证了其通用性、生态兼容性和自主可控能力。这些优化旨在提供更高效、更具成本效益的AI模型运行环境。
🌐 **生态开放与用户体验提升**:深度求索不仅推动了模型与硬件的适配,还通过大幅降低API调用成本(降低50%以上)和更新官方App、网页端、小程序等多种平台,积极邀请广大用户体验测试DeepSeek-V3.2-Exp模型。这种开放的生态策略和对用户反馈的重视,有助于加速AI技术的普及和迭代。
📈 **国内AI产业发展新动能**:国产大模型与国产芯片的软硬协同演进,正成为推动国内AI产业加速发展的重要力量。通过“Day 0适配”等快速响应机制,能够形成更加紧密的产业生态,为AI技术的创新和应用提供更坚实的基础,预示着国内AI产业将迎来更广阔的发展前景。
快科技9月30日消息,日前,深度求索宣布,正式发布DeepSeek-V3.2-Exp模型。尽管这是一个实验性(Experimental)的版本,还是吸引了多家芯片厂商集体宣布Day 0适配。
据华为计算微信公众号消息,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。
寒武纪在官方微信号宣布,已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配。依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。
海光信息宣布,其DCU实现对DeepSeek-V3.2-Exp的无缝适配+深度调优,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。
此前国泰海通证券研究指出,国产大模型与国产芯片正朝着软硬协同的统一生态演进,国内AI产业的发展有望进一步加速。
ps.“Day 0 适配” 是软件开发和技术适配领域的一个术语,通常指在某个新系统、新平台、新设备或新功能正式发布的第一天(Day 0) 就完成适配工作,确保相关软件、服务或功能能与新环境无缝兼容并同步可用。
深度求索表示,目前,官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时API大幅度降价,欢迎广大用户体验测试并反馈意见。
据悉,在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上。