Kimi K2 模型发布了其最新版本(0905),在编程任务上表现出显著优化。新版本提升了 Agentic Coding 能力,在公开基准和实际场景中性能更佳。前端编程体验也得到改进,代码更美观实用。最值得关注的是,模型上下文长度翻倍至 256K,能处理更复杂长任务。新版本提供高速 API,输出速度可达每秒 60-100 Token。在 SWE-bench Verified 等测试中表现优异。Kimi 开放平台已上线支持 256K 上下文和 Token Enforcer 功能的 Kimi-K2-0905-preview API,兼容 Anthropic API,并支持 WebSearch 工具。同时,全自动 Context Caching 功能有助于降低 Token 消耗。定价保持不变,高速版 API 也已升级。
✨ **编程能力全面升级**:Kimi K2 模型最新版本在 Agentic Coding 方面取得了显著进步,无论是在公开基准测试还是实际编程场景中,都展现出更强大的性能。前端编程体验也得到了优化,代码的实用性和美观性均有所提升,为开发者带来更流畅高效的编码体验。
🚀 **上下文长度翻倍,支持更长任务**:新版本将模型的上下文长度从原先的 128K 大幅提升至 256K。这一扩展意味着 Kimi K2 能够处理更庞大、更复杂的信息集,从而在需要深度理解和长序列推理的编程任务中提供更卓越的支持,例如处理大型代码库或进行长篇幅的代码生成与分析。
⚡ **高速 API 与智能功能**:新版本提供了高速 API,输出速度最高可达每秒 60-100 个 Token,极大地缩短了响应时间。同时,Kimi 开放平台已上线支持 256K 上下文长度和 Token Enforcer 功能的 API,确保 toolcall 格式的准确性。接口兼容 Anthropic API,并新增 WebSearch 工具支持,进一步提升了 K2 与 Claude Code 的协同工作效率,全自动 Context Caching 功能则有效降低了 Token 消耗。
2025-09-05 11:40:41 作者:狼叫兽

月之暗面于今日发布 Kimi K2 模型的最新版本(0905),该版本在编程任务中的表现得到显著优化,主要更新内容如下:
模型在 Agentic Coding 方面的能力获得提升,在多个公开基准测试以及实际编程场景中展现出更佳的性能表现。前端编程体验也进行了优化,代码的美观性与实用性均有提高。
此外,模型的上下文长度从原先的 128K 提升至 256K,为处理更复杂、更长期的任务提供了更强有力的支持。新版本还提供高速 API,输出速度最高可达每秒 60-100 个 Token。
根据官方提供的测试数据,新版 Kimi K2 在重点考察真实软件工程能力的 SWE-bench Verified 等基准测试中,取得了令人瞩目的成绩。
Kimi 开放平台现已上线 kimi-k2-0905-preview 模型 API。该版本支持 256K 上下文长度,并配备 Token Enforcer 功能,确保 toolcall 的格式完全正确。接口完全兼容 Anthropic API,同时支持 WebSearch 工具,进一步提升 K2 与 Claude Code 的使用体验。
新版本还引入了全自动 Context Caching 功能,有助于降低输入 Token 的消耗。定价方面,新版本维持与此前 0711 版相同的收费标准。
对于有高速输出需求的用户,高速版 API(kimi-k2-turbo-preview)也已同步升级至新模型,其输出速度可达到每秒 60-100 个 Token。
如需本地部署,用户可通过 Hugging Face、ModelScope 等平台下载相应模型。