DeepSeek今日正式发布了V3.1版本,该版本集成了思考和非思考模型,在各项表现上均有显著提升,继续保持开源大模型领先地位。尤为引人注目的是,DeepSeek宣布将支持下一代国产AI芯片,并明确指出UE8M0 FP8是即将发布的国产芯片设计。此举意味着DeepSeek在AI运算精度上迈出了重要一步,支持了专为AI核心运算优化的FP8格式,这将大幅提升性能并降低功耗。同时,对下一代国产AI芯片的支持也预示着国内AI硬件生态的加速发展,为国产大模型和AI芯片的协同进步注入了新的动力。
🚀 DeepSeek V3.1版本发布,整合了思考与非思考模型,全面提升了各项性能指标,巩固了其在开源大模型领域的领先地位。
💡 DeepSeek V3.1宣布支持下一代国产AI芯片,并点名UE8M0 FP8,这标志着国产AI芯片在精度格式上实现了突破,为AI运算提供了更高效的解决方案。
📊 FP8精度格式相较于FP16,具备更高的性能和更低的功耗,能在同等芯片面积下实现性能翻倍,功耗降低至1/4,并降低对内存带宽的需求,是AI计算的趋势。
🌟 DeepSeek对下一代国产AI芯片的支持,预示着国产AI硬件生态正快速发展,有利于推动国产大模型与国产AI芯片的协同创新和应用落地。
快科技8月21日消息,DeepSeek今天正式发布了DeepSeek v3.1版,这版整合了思考和非思考模型,各方面表现大幅提升,继续坐稳开源大模型榜首位置。
不过DeepSeek这次还准备了更大的惊喜,那就是官宣支持下一代国产AI芯片,在官方公众号的评论中,DeepSeek明确提到UE8M0 FP8是即将发布的下一代国产芯片设计。

从DeepSeek这番表态来看,有2个重点,一个是支持了FP8,一个是支持了下一代国产AI芯片,先说第一点UE8M0 FP8,这指的是指数位8位、尾数位0位的FP8子格式,这是专为矩阵乘法等AI核心运算优化设计的精度格式。
目前NVIDIA的AI芯片早已支持FP8甚至FP4,而国产的很多AI芯片还没做到这一点,支持的还是FP16格式,而FP8精度更低,性能更强,同样的面积下性能至少翻倍,功耗也大幅降低,只有FP16的1/4,同时对带宽的要求也更低,优势明显。
第二点则是DeepSeek确认支持下一代国产AI芯片,而且还是即将发布的,虽然他们没有明确说明是哪家的,但很容易猜到是谁家的AI芯片,大家等着看就好了。
