DeepSeek 09月25日
DeepSeek-V3模型发布,性能超越顶尖模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek-V3模型正式上线并开源,性能超越Qwen2.5-72B和Llama-3.1-405B等开源模型,与GPT-4o和Claude-3.5-Sonnet等闭源模型相当。在知识类、长文本、代码和数学任务上表现优异,生成速度提升至3倍。API服务价格调整,并提供45天优惠体验期。模型支持FP8训练和本地部署,推动普惠AGI发展。

🔍 DeepSeek-V3 是一款由 DeepSeek 团队自主研发的大型语言模型,拥有 671B 参数,激活参数为 37B,在 14.8T token 上进行预训练,性能与海外顶尖闭源模型 GPT-4o 和 Claude-3.5-Sonnet 相当。

💡 在多项评测中,DeepSeek-V3 的表现超越了 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,并在知识类任务(如 MMLU, MMLU-Pro, GPQA, SimpleQA)上接近当前表现最好的模型 Claude-3.5-Sonnet-1022。

⚡ DeepSeek-V3 的生成速度大幅提升,从 V2.5 模型的 20 TPS 提升至 60 TPS,实现了 3 倍的提升,为用户带来更加迅速流畅的使用体验。

💰 随着DeepSeek-V3的上线,API服务价格也将进行调整,每百万输入 tokens 0.5元(缓存命中)/ 2元(缓存未命中),每百万输出 tokens 8元。同时,提供 45 天的优惠价格体验期,价格为每百万输入 tokens 0.1元(缓存命中)/ 1元(缓存未命中),每百万输出 tokens 2元。

🌐 DeepSeek-V3 采用 FP8 训练,并开源了原生 FP8 权重,支持 SGLang、LMDeploy、TensorRT-LLM 和 MindIE 等推理框架,并提供从 FP8 到 BF16 的转换脚本,方便社区适配和拓展应用场景。

原创 深度求索 2024-12-26 19:17 北京

性能比肩世界顶尖模型,速度跃升,价格更新

今天,我们全新系列模型 DeepSeek-V3 首个版本上线并同步开源。登录官网 chat.deepseek.com 即可与最新版 V3 模型对话。API 服务已同步更新,接口配置无需改动。当前版本的 DeepSeek-V3 暂不支持多模态输入输出。性能对齐海外领军闭源模型DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练。论文链接:

https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdfDeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。百科知识:DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。

长文本:长文本测评方面,在DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。

代码:DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型,并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。

数学:在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。

中文能力:DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。

生成速度提升至 3 倍通过算法和工程上的创新,DeepSeek-V3 的生成吐字速度从 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型实现了 3 倍的提升,为用户带来更加迅速流畅的使用体验。

API 服务价格调整随着性能更强、速度更快的 DeepSeek-V3 更新上线,我们的模型 API 服务定价也将调整为每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 ,以期能够持续地为大家提供更好的模型服务。与此同时,我们决定为全新模型设置长达 45 的优惠价格体验期:即日起至 2025 2 8 ,DeepSeek-V3 的 API 服务价格仍然会是大家熟悉的每百万输入 tokens 0.1 元(缓存命中)/ 1 元(缓存未命中),每百万输出 tokens 2 ,已经注册的老用户和在此期间内注册的新用户均可享受以上优惠价格。

开源权重和本地部署DeepSeek-V3 采用 FP8 训练,并开源了原生 FP8 权重。得益于开源社区的支持,SGLangLMDeploy  第一时间支持了 V3 模型的原生 FP8 推理,同时 TensorRT-LLM MindIE 则实现了 BF16 推理。此外,为方便社区适配和拓展应用场景,我们提供了从 FP8 到 BF16 的转换脚本。模型权重下载和更多本地部署信息请参考: 

https://huggingface.co/deepseek-ai/DeepSeek-V3-Base

“以开源精神和长期主义追求普惠 AGI”是 DeepSeek 一直以来的坚定信念。我们非常兴奋能与社区分享在模型预训练方面的阶段性进展,也十分欣喜地看到开源模型和闭源模型的能力差距正在进一步缩小。这是一个全新的开始,未来我们会在 DeepSeek-V3 基座模型上继续打造深度思考、多模态等更加丰富的功能,并将持续与社区分享我们最新的探索成果。
—— End ——

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-V3 大型语言模型 开源模型 性能提升 API服务
相关文章