中关村在线新闻中心 09月06日
Kimi K2模型最新版发布,编程能力与上下文长度显著提升
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Kimi K2 模型发布了其最新版本(0905),在编程任务上表现出显著优化。新版本提升了 Agentic Coding 能力,在公开基准和实际场景中性能更佳。前端编程体验也得到改进,代码更美观实用。最值得关注的是,模型上下文长度翻倍至 256K,能处理更复杂长任务。新版本提供高速 API,输出速度可达每秒 60-100 Token。在 SWE-bench Verified 等测试中表现优异。Kimi 开放平台已上线支持 256K 上下文和 Token Enforcer 功能的 Kimi-K2-0905-preview API,兼容 Anthropic API,并支持 WebSearch 工具。同时,全自动 Context Caching 功能有助于降低 Token 消耗。定价保持不变,高速版 API 也已升级。

✨ **编程能力全面升级**:Kimi K2 模型最新版本在 Agentic Coding 方面取得了显著进步,无论是在公开基准测试还是实际编程场景中,都展现出更强大的性能。前端编程体验也得到了优化,代码的实用性和美观性均有所提升,为开发者带来更流畅高效的编码体验。

🚀 **上下文长度翻倍,支持更长任务**:新版本将模型的上下文长度从原先的 128K 大幅提升至 256K。这一扩展意味着 Kimi K2 能够处理更庞大、更复杂的信息集,从而在需要深度理解和长序列推理的编程任务中提供更卓越的支持,例如处理大型代码库或进行长篇幅的代码生成与分析。

⚡ **高速 API 与智能功能**:新版本提供了高速 API,输出速度最高可达每秒 60-100 个 Token,极大地缩短了响应时间。同时,Kimi 开放平台已上线支持 256K 上下文长度和 Token Enforcer 功能的 API,确保 toolcall 格式的准确性。接口兼容 Anthropic API,并新增 WebSearch 工具支持,进一步提升了 K2 与 Claude Code 的协同工作效率,全自动 Context Caching 功能则有效降低了 Token 消耗。

2025-09-05 11:40:41  作者:狼叫兽

月之暗面于今日发布 Kimi K2 模型的最新版本(0905),该版本在编程任务中的表现得到显著优化,主要更新内容如下:

模型在 Agentic Coding 方面的能力获得提升,在多个公开基准测试以及实际编程场景中展现出更佳的性能表现。前端编程体验也进行了优化,代码的美观性与实用性均有提高。

此外,模型的上下文长度从原先的 128K 提升至 256K,为处理更复杂、更长期的任务提供了更强有力的支持。新版本还提供高速 API,输出速度最高可达每秒 60-100 个 Token。

根据官方提供的测试数据,新版 Kimi K2 在重点考察真实软件工程能力的 SWE-bench Verified 等基准测试中,取得了令人瞩目的成绩。

Kimi 开放平台现已上线 kimi-k2-0905-preview 模型 API。该版本支持 256K 上下文长度,并配备 Token Enforcer 功能,确保 toolcall 的格式完全正确。接口完全兼容 Anthropic API,同时支持 WebSearch 工具,进一步提升 K2 与 Claude Code 的使用体验。

新版本还引入了全自动 Context Caching 功能,有助于降低输入 Token 的消耗。定价方面,新版本维持与此前 0711 版相同的收费标准。

对于有高速输出需求的用户,高速版 API(kimi-k2-turbo-preview)也已同步升级至新模型,其输出速度可达到每秒 60-100 个 Token。

如需本地部署,用户可通过 Hugging Face、ModelScope 等平台下载相应模型。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Kimi K2 AI模型 编程优化 上下文长度 高速API Agentic Coding LLM
相关文章