云启资本 10月28日 17:41
MiniMax发布M2模型,Agent与代码开发新选择
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MiniMax近日推出专为Agent与代码设计的M2开源模型,旨在提供卓越的性能、极致的性价比和快速的推理速度。该模型在工具调用、深度搜索及编程方面表现出色,能稳定执行复杂长链条任务,赋能AI Native Company的构建。M2模型API价格仅为Claude Sonnet的8%,速度提升近一倍,并提供Lightning高效模式和Pro专业模式的Agent产品,助力用户从对话助手升级到独立完成复杂任务,实现生产力跃迁。模型权重已在HuggingFace开源,支持本地部署。

🚀 **M2模型驱动Agent与代码开发:** MiniMax推出的M2模型是专为Agent和代码开发量身打造的开源解决方案。该模型在处理复杂任务方面表现出色,尤其擅长工具调用、深度搜索以及编程任务,能够稳定执行长链条的指令,为构建“AI Native Company”提供了强大的技术支撑。

💰 **极致性价比与速度优势:** M2模型在价格和速度上实现了显著突破。其API价格仅为Claude Sonnet的8%,同时推理速度提升近一倍。这种高性价比和快速响应能力,使得Agent应用在完成复杂任务时更加流畅高效,降低了用户的使用成本。

💡 **Agent产品功能升级:** 基于M2模型,MiniMax推出了Agent产品,提供“Lightning高效模式”和“Pro专业模式”。Lightning模式适用于对话问答和轻量级搜索、代码场景,实现极速输出;Pro模式则专注于复杂长程任务,如深度研究、全栈开发、报告撰写等,提供专业的Agent能力,满足用户多样化的生产力需求。

🌐 **开源与本地部署支持:** 为了方便开发者探索和应用M2模型,MiniMax已将其完整模型权重在HuggingFace上开源。开发者可以通过vLLM或SGLang等工具进行本地部署,为模型的研究和定制化提供了极大的便利性,进一步推广了“Intelligence with Everyone”的愿景。

持续陪伴的 2025-10-27 18:15 北京

专为 Agent 和代码而生,仅 Claude Sonnet 8% 价格

从 "Intelligence with Everyone" 的愿景出发,MiniMax 再进一步。

今日(10 月 27 日),MiniMax 上线专为 Agent 与代码打造的 M2 开源模型。仅 Claude Sonnet 8% 价格、2 倍速度,限时免费。

从 AGI 到 Agent,从研发工具到生产力跃迁,又一次来自 MiniMax 的惊喜。和本期「云启伙伴」一起了解详情。

以下内容摘编自MiniMax稀宇科技

自创立 Day 1 起,我们就坚持“让每个人都拥有充裕的智能(Intelligence with Everyone)”的愿景。

今天,我们正式开源并上线了 MiniMax M2,专为 Agent 和代码而生,仅Claude Sonnet 8%价格,2 倍速度,限时免费

    顶级代码能力:专为端到端开发工作流打造,在 Claude Code、Cursor、Cline、Kilo Code、Droid 等多种应用中表现卓越

    强大 Agentic 表现:出色规划并稳定执行复杂长链条工具调用任务,协同调用 Shell、Browser、Python 代码执行器和各种 MCP 工具

    极致性价比&速度:通过高效的激活参数设计,实现智能、速度与成本的最佳平衡

公司内部的小伙伴一直在搭建各种各样的 Agent,来帮助解决公司飞速发展中遇到的各项挑战。这些 Agent 开始能够完成越来越复杂的任务,从线上数据的分析、技术问题的调研、日常的编程、用户反馈甚至到 HR 的简历搜索和筛选。

这些Agent和我们的小伙伴一起驱动着公司的发展,构造原生的 AI 组织(AI Native Company),从研发 AGI 到和 AGI 一起进步。我们越来越强烈地发现,AGI 是生产力,而 Agent 是一个很好的载体,代表着从对话类助手的简单问答到用 Agent 独立完成复杂任务的升级。

但是我们发现没有一款模型在这些 Agent 上能完全满足我们的需求。这里面的挑战在于好的模型需要在效果、价格和推理速度上取得好的平衡,这几乎是一个“不可能三角”:海外最好的模型可以有不错的效果,但是价格非常贵且推理速度比较慢;国内的模型价格也相对便宜,但是效果和推理速度有差距。

这也导致了现有的 Agent 产品为了有好的效果,往往价格很贵,或者速度相对较慢,比如不少 Agent 产品包月的价格经常到达几十美金甚至几百美金,完成一个任务经常需要小时量级。

我们一直在探索,能不能有一款模型能在效果、价格和速度上能取得比较好的平衡,从而让更多的人能受益于 Agent 时代的智能提升,延续我们 Intellience with Everyone 的愿景。这个模型需要具备非常多样化的能力,包括编程、使用工具、逻辑能力、知识等等,而且这个模型需要具备非常快的推理速度和非常低的部署成本。为此我们研发了 MiniMax M2,并开源了出来。

先看 Agent 最重要的三个能力,编程、使用工具和深度搜索的能力,我们对比了相主流的几个模型:

可以发现模型在使用工具和深度搜索的能力都非常接近了海外最好的模型,在编程上逊色于海外最好的模型,但是也已经到了国内最好的一档。

这个里面有一些算法和认知上的提升,我们会陆续做一些分享。 但是最核心的只有一点:要做出来符合要求的模型,首先要我们自己能用起来。为此我们开发到业务甚至后台的同事,跟算法同学一起花了大量的精力构造环境和评测,开始越来越多的用到日常工作中。

当我们能把这些复杂场景做好之后,在传统的大模型任务,比如知识、数学等,我们发现把积累的方法迁移过来之后很自然就能取得非常好的结果。比如一个比较流行的整合了 10 个测试任务的 Artificial Analysis 榜单,排到了全球前五:

我们把模型的 API 价格定在每百万 Token输入 0.3 美金/ 2.1 元人民币,以及输出 1.2美金/ 8.4元,同时在线上提供 TPS(每秒输出 Token 数)在 100 左右的推理服务(还在快速提升)。 这个价格是 Claude Sonnet 4.5 的 8%,而推理速度快了接近一倍。

在上个周末,有不少海内外的热心开发者跟我们一起做了大量测试。为了更方便大家一起探索模型的能力,我们准备把免费测试的时间延长到 11 月 6 号。同时,我们也已经在 huggingface 上开源了完整的模型权重,有兴趣的开发者可以自己部署,SGLang 和 vLLM 都已经提供了支持。

这个价格和推理速度,我们认为在目前的主流模型中是一个非常好的选择。下面从两个视角分析。

首先是价格 VS 效果,合适的模型应该效果好且价格普惠,也就是落在下图中的绿色部分。这里的效果我们用 Artificial Analysis 上 10 个测试集的平均分来表示:

然后是价格 VS 推理速度。在模型部署的时候,有个取舍是模型往往可以用更慢的推理速度获取更低的价格。合适的模型应该价格普惠且推理速度较快。我们同样对比了目前的几个有代表性的模型:

除了这些标准数据上的分析,我们也跟 Claude Sonnet 4.5 和几个开源模型 1V1 对比了实用的表现:

这些测试集本周会在 Github 上公布。

为了大家更方便的使用 Agent 相关的能力,我们在国内上线了我们由 M2 模型驱动的 Agent 产品,并且对海外的版本做了升级。在 MiniMax Agent 中,我们提供了两种模式:

· Lightning 高效模式:高效极速版 Agent,在对话问答/轻量级搜索/轻量级代码场景极速输出,且在效果上以强大 agentic 能力升级对话类产品体验。

· Pro 专业模式:专业 agent 能力,在复杂长程任务上最佳表现,擅长深度研究/全栈开发/PPT/报告撰写/网页制作等等。

受益于 M2 本身的推理速度,除了性价比高,M2 驱动的 Agent 完成复杂任务的时间也显著更加流畅。

我们目前在免费提供 MiniMax Agent,直到我们的服务器撑不住为止。

如何使用

基于 MiniMax-M2 的通用 Agent 产品 MiniMax Agent 现已全面开放使用,并限时免费:

https://agent.minimaxi.com/

MiniMax-M2 API 已在 MiniMax 开放平台开放使用,并限时免费:

https://platform.minimaxi.com/docs/guides/text-generation

MiniMax-M2 模型权重已开源,可以本地部署使用

本地部署指南

从以下 HuggingFace 目录中下载模型权重:

https://huggingface.co/MiniMaxAI/MiniMax-M2

我们推荐使用 vLLM 或 SGLang 部署 MiniMax-M2.

vLLM:请参考 vLLM Deployment Guide.

https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/vllm_deploy_guide_cn.md

SGLang:请参考 SGLang Deployment Guide.

https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/sglang_deploy_guide_cn.md

推荐使用以下推理参数以获得最好的性能:

temperature=1.0, top_p = 0.95, top_k = 20

工具调用指南:请参考Tool Calling Guide

https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/tool_calling_guide_cn.md

Intelligence with Everyone.

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MiniMax M2 Agent 代码生成 开源模型 AI 人工智能 Claude Sonnet AGI 生产力 MiniMax M2 LLM Large Language Model Code Generation Open Source
相关文章