硅基流动 09月25日
阿里开源新一代MoE模型Qwen3-Next-80B,性能强劲且成本低廉
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里通义千问团队最新开源了Qwen3-Next-80B-A3B-Instruct和Qwen3-Next-80B-A3B-Thinking两款MoE模型。这些模型采用“新一代基础模型架构”,总参数80B,推理时仅激活约3.7%的参数(约3B),算力利用率极高。性能方面,它们远超Qwen3-32B,训练成本却不到其1/10。特别擅长长文本处理,生成32K以上长文本时,推理速度是Qwen3-32B的10倍以上。硅基流动平台支持256K最大上下文长度,价格极具竞争力。

🚀 **极致的性价比与性能提升**:Qwen3-Next-80B-A3B系列模型在混合注意力机制(GatedDeltaNet + GatedAttention)和高稀疏度MoE结构(仅激活3.7%参数)等核心改进下,实现了训练与推理成本的大幅降低,同时性能远超同类模型,如Qwen3-32B,训练成本却不到其1/10。

💨 **长文本处理能力飞跃**:通过多Token预测机制等优化,该系列模型在长文本生成方面表现突出,尤其在处理32K以上长文本时,推理速度可达Qwen3-32B的10倍以上,为需要处理大量上下文的应用场景提供了强大支持。

🧠 **卓越的推理与思考能力**:Qwen3-Next-80B-A3B-Thinking模型在复杂推理任务上表现尤为出色,超越了预训练成本更高的同系列模型以及闭源模型Gemini-2.5-Flash-Thinking,在部分指标上接近了通义千问的旗舰模型。

💰 **灵活的定价与试用**:硅基流动平台为Qwen3-Next-80B-A3B系列模型提供了支持256K最大上下文长度的服务,定价为输入1元/M Tokens,输出4元/M Tokens。新用户还可分别在国内外站获得14元或1美元的赠金体验。

原创 SiliconFlow 2025-09-24 17:06 北京

让 MoE 模型更快、更强、更省。

它们诞生于“新一代基础模型架构”;

它们的总参数是 80B ,推理时只用约 3B 参数,算力利用率大约是 3.7%;

它们的性能远超 Qwen3-32B,训练成本却不到后者的 1/10;

它们一次能多猜几个字,长文生成更快,在生成 32K 以上长文本时,推理速度是 Qwen3-32B 的 10 倍以上;

它们让 MoE 模型跨步迈向更快、更强、更省,适合长文本处理,对推理速度和稳定性要求高的场景。

它们是阿里通义千问团队最新开源的 Qwen3-Next-80B-A3B-Instruct 与思考模型 Qwen3-Next-80B-A3B-Thinking,是登陆硅基流动的第 133、134 个模型。

硅基流动平台上的 Qwen3-Next-80B-A3B 系列模型支持 256K 最大上下文长度,价格为输入 1 元 / M Tokens,输出 4 元 / M Tokens。

欢迎通过以下方式使用 Qwen3-Next-80B-A3B,国内站与国际站新用户可分别自动获取 14 元或 1 美元赠金体验。

国内站在线体验

https://cloud.siliconflow.cn/models

国际站在线体验

https://cloud.siliconflow.com/models

第三方应用接入教程

https://docs.siliconflow.cn/cn/usercases/

开发者 API 文档

https://docs.siliconflow.cn/cn/api-reference/chat-completions/

模型特性及性能

相比 Qwen3 的 MoE 模型结构, Qwen3-Next-80B-A3B 系列模型实现了极致的训练与推理性价比。这主要取决于以下核心改进:混合注意力机制(GatedDeltaNet + GatedAttention)、高稀疏度 MoE 结构(仅激活 3.7% 参数)、一系列训练稳定友好的优化,以及提升推理效率的多 Token 预测机制。

通义千问官方公布的基准数据显示,Qwen3-Next-80B-A3B-Instruct 的性能显著优于 Qwen3-30B-A3B-Instruct-2507 和 Qwen3-32B-Non-thinking,并取得了几乎与 Qwen3-235B-A22B-Instruct-2507 相近的效果

Qwen3-Next-80B-A3B-Thinking在复杂推理任务上表现卓越,优于预训练成本更高的 Qwen3-30B-A3B-Thinking-2507 和 Qwen3-32B-Thinking,超过了闭源的模型 Gemini-2.5-Flash-Thinking,并在部分指标上接近了通义千问最新旗舰模型 Qwen3-235B-A22B-Thinking-2507。

开发者首选的“Token 工厂”

—— 极速 · 可靠 · 经济

硅基流动的一站式大模型服务平台致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。

除 Qwen3-Next-80B-A3B 系列模型,硅基流动已上架包括 Ring-flash-2.0Qwen-Image-EditLing-flash-2.0Hunyuan-MT-7B、Qwen-Image、Kimi-K2-0905、DeepSeek-V3.1、Wan2.2、step3、Qwen3-Coder、Qwen3-30B-A3B、MOSS-TTSD-V0.5、GLM-4.5、Qwen3-Embedding & Reranker、Qwen2.5VL-72B、CosyVoice2 在内的各类语言、图片、音频、视频、嵌入与重排序模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen3-8B 等多款大模型可免费使用,让开发者实现“Token 自由”。

开发者可在平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。

近期更新

硅基流动上线Kimi-K2-0905

硅基流动上线蚂蚁集团Ling-flash-2.0

硅基流动上线腾讯混元Hunyuan-MT-7B

硅基流动上线阿里通义千问Qwen-Image

硅基流动企业级MaaS助电力巨头效能狂飙

提效300%,大模型一体机加速药企报告撰写

扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Qwen3-Next-80B MoE模型 阿里通义千问 开源模型 长文本处理 AI性能 硅基流动 AI成本 推理速度 Qwen3-Next-80B MoE models Alibaba Qwen Open-source models Long-text processing AI performance SiliconFlow AI cost Inference speed
相关文章