原创 SiliconFlow 2025-09-04 18:25 北京
支持 256K 上下文,具有强大的长文本处理、推理、智能体能力。
硅基流动大模型服务平台已上线字节跳动 Seed 团队最新开源的 Seed-OSS-36B-Instruct 模型。该模型具有强大的长文本处理、推理、智能体能力以及通用能力。尽管仅使用 12 万亿 Tokens 进行训练,该模型依然在多个主流开放基准测试中取得了优异表现。
硅基流动平台的 Seed-OSS-36B-Instruct 支持 256K 最大上下文长度,价格为输入 1.5 元 / M Tokens,输出为 4 元 / M Tokens。
欢迎通过以下方式使用 Seed-OSS-36B-Instruct,国内站与国际站新用户可分别自动获取 14 元或 1 美元赠金体验。
国内站在线体验
https://cloud.siliconflow.cn/models
国际站在线体验
https://cloud.siliconflow.com/models
第三方应用接入教程
https://docs.siliconflow.cn/cn/usercases/
开发者 API 文档
https://docs.siliconflow.cn/cn/api-reference/images/images-generations
模型特性及性能
Seed-OSS-36B-Instruct 的主要特性包括:
- 推理预算灵活可控:支持用户根据需要灵活调整推理长度,通过动态调整推理长度来提升实际应用中的推理效率。增强的推理能力:在保持卓越通用性能的同时,针对推理类任务进行了专项优化。智能体能力:在工具调用、问题解决等智能体场景中表现出色。研究友好:考虑到在预训练中引入合成指令数据可能影响后续研究,字节跳动团队同时发布了包含和不包含指令数据的预训练模型,为研究社区提供更多多样化选择。原生长上下文:原生支持最长 512K 的上下文处理能力。
在同级别规模模型性能对比中,Seed-OSS-36B-Instruct 在数学、代码、长上下文处理等多个领域获得了出色表现。
开发者首选的“Token 工厂”
—— 极速 · 可靠 · 经济
硅基流动的一站式大模型服务平台致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除了 Seed-OSS-36B-Instruct,硅基流动平台已上架包括 DeepSeek-V3.1、Wan2.2、Step3、Qwen3-Coder、Qwen3-30B-A3B、MOSS-TTSD-V0.5、GLM-4.5、Qwen3-235B-A22B、Kimi K2 Instruct、Qwen3-Embedding & Reranker、DeepSeek-R1-0528、Qwen2.5VL-72B、CosyVoice2 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen3-8B 等多款大模型 API 免费使用,让开发者实现“Token 自由”。
开发者可在平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。
近期更新
硅基流动上线阿里Wan2.2
硅基流动上线DeepSeek-V3.1
提效300%,大模型一体机加速药企报告撰写
