原创 SiliconFlow 2025-09-24 17:06 北京
让 MoE 模型更快、更强、更省。
它们诞生于“新一代基础模型架构”;
它们的总参数是 80B ,推理时只用约 3B 参数,算力利用率大约是 3.7%;
它们的性能远超 Qwen3-32B,训练成本却不到后者的 1/10;
它们一次能多猜几个字,长文生成更快,在生成 32K 以上长文本时,推理速度是 Qwen3-32B 的 10 倍以上;
它们让 MoE 模型跨步迈向更快、更强、更省,适合长文本处理,对推理速度和稳定性要求高的场景。
它们是阿里通义千问团队最新开源的 Qwen3-Next-80B-A3B-Instruct 与思考模型 Qwen3-Next-80B-A3B-Thinking,是登陆硅基流动的第 133、134 个模型。
硅基流动平台上的 Qwen3-Next-80B-A3B 系列模型支持 256K 最大上下文长度,价格为输入 1 元 / M Tokens,输出 4 元 / M Tokens。
欢迎通过以下方式使用 Qwen3-Next-80B-A3B,国内站与国际站新用户可分别自动获取 14 元或 1 美元赠金体验。
国内站在线体验
https://cloud.siliconflow.cn/models
国际站在线体验
https://cloud.siliconflow.com/models
第三方应用接入教程
https://docs.siliconflow.cn/cn/usercases/
开发者 API 文档
https://docs.siliconflow.cn/cn/api-reference/chat-completions/
模型特性及性能
相比 Qwen3 的 MoE 模型结构, Qwen3-Next-80B-A3B 系列模型实现了极致的训练与推理性价比。这主要取决于以下核心改进:混合注意力机制(GatedDeltaNet + GatedAttention)、高稀疏度 MoE 结构(仅激活 3.7% 参数)、一系列训练稳定友好的优化,以及提升推理效率的多 Token 预测机制。
通义千问官方公布的基准数据显示,Qwen3-Next-80B-A3B-Instruct 的性能显著优于 Qwen3-30B-A3B-Instruct-2507 和 Qwen3-32B-Non-thinking,并取得了几乎与 Qwen3-235B-A22B-Instruct-2507 相近的效果。
Qwen3-Next-80B-A3B-Thinking在复杂推理任务上表现卓越,优于预训练成本更高的 Qwen3-30B-A3B-Thinking-2507 和 Qwen3-32B-Thinking,超过了闭源的模型 Gemini-2.5-Flash-Thinking,并在部分指标上接近了通义千问最新旗舰模型 Qwen3-235B-A22B-Thinking-2507。
开发者首选的“Token 工厂”
—— 极速 · 可靠 · 经济
硅基流动的一站式大模型服务平台致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除 Qwen3-Next-80B-A3B 系列模型,硅基流动已上架包括 Ring-flash-2.0、Qwen-Image-Edit、Ling-flash-2.0、Hunyuan-MT-7B、Qwen-Image、Kimi-K2-0905、DeepSeek-V3.1、Wan2.2、step3、Qwen3-Coder、Qwen3-30B-A3B、MOSS-TTSD-V0.5、GLM-4.5、Qwen3-Embedding & Reranker、Qwen2.5VL-72B、CosyVoice2 在内的各类语言、图片、音频、视频、嵌入与重排序模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen3-8B 等多款大模型可免费使用,让开发者实现“Token 自由”。
开发者可在平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。
近期更新
硅基流动上线阿里通义千问Qwen-Image
提效300%,大模型一体机加速药企报告撰写
