
自创立 Day 1 起,我们就坚持“让每个人都拥有充裕的智能 (Intelligence with Everyone)”的愿景。
今天,我们正式开源并上线了 MiniMax M2,专为 Agent 和代码而生,仅 Claude Sonnet 8% 价格,2倍速度,限时免费!
- 顶级代码能力:专为端到端开发工作流打造,在Claude Code、Cursor、Cline、Kilo Code、Droid 等多种应用中表现卓越
- 强大Agentic表现:出色规划并稳定执行复杂长链条工具调用任务,协同调用Shell、Browser、Python代码执行器和各种MCP工具
- 极致性价比&速度:通过高效的激活参数设计,实现智能、速度与成本的最佳平衡
公司内部的小伙伴一直在搭建各种各样的Agent, 来帮助解决公司飞速发展中遇到的各项挑战。这些Agent开始能够完成越来越复杂的任务, 从线上数据的分析、技术问题的调研、日常的编程、用户反馈甚至到HR的简历搜索和筛选。这些Agent和我们的小伙伴一起驱动着公司的发展, 构造原生的AI组织 (AI Native Company), 从研发AGI到和AGI一起进步。我们越来越强烈地发现, AGI是生产力, 而Agent是一个很好的载体, 代表着从对话类助手的简单问答到用Agent独立完成复杂任务的升级。
但是我们发现没有一款模型在这些Agent上能完全满足我们的需求。这里面的挑战在于好的模型需要在效果、价格和推理速度上取得好的平衡, 这几乎是一个“不可能三角”: 海外最好的模型可以有不错的效果, 但是价格非常贵且推理速度比较慢; 国内的模型价格也相对便宜, 但是效果和推理速度有差距。这也导致了现有的Agent产品为了有好的效果, 往往价格很贵, 或者速度相对较慢, 比如不少Agent产品包月的价格经常到达几十美金甚至几百美金, 完成一个任务经常需要小时量级。
我们一直在探索, 能不能有一款模型能在效果、价格和速度上能取得比较好的平衡, 从而让更多的人能受益于Agent时代的智能提升, 延续我们Intelligence with Everyone的愿景。这个模型需要具备非常多样化的能力, 包括编程、使用工具、逻辑能力、知识等等, 而且这个模型需要具备非常快的推理速度和非常低的部署成本。为此我们研发了MiniMax M2, 并开源了出来。
先看Agent最重要的三个能力, 编程、使用工具和深度搜索的能力, 我们对比了相主流的几个模型:
可以发现模型在使用工具和深度搜索的能力都非常接近了海外最好的模型,在编程上逊色于海外最好的模型,但是也已经到了国内最好的一档。
这个里面有一些算法和认知上的提升,我们会陆续做一些分享。 但是最核心的只有一点:要做出来符合要求的模型,首先要我们自己能用起来。为此我们开发到业务甚至后台的同事,跟算法同学一起花了大量的精力构造环境和评测,开始越来越多的用到日常工作中。
当我们能把这些复杂场景做好之后,在传统的大模型任务,比如知识、数学等,我们发现把积累的方法迁移过来之后很自然就能取得非常好的结果。比如一个比较流行的整合了10个测试任务的Artificial Analysis榜单,排到了全球前五:
我们把模型的API价格定在每百万Token输入0.3美金/2.1元人民币,以及输出1.2美金/8.4元,同时在线上提供TPS(每秒输出Token数)在100左右的推理服务(还在快速提升)。 这个价格是Claude Sonnet 4.5 的8%,而推理速度快了接近一倍。
在上个周末,有不少海内外的热心开发者跟我们一起做了大量测试。为了更方便大家一起探索模型的能力,我们准备把免费测试的时间延长到11月6号。同时,我们也已经在huggingface上开源了完整的模型权重,有兴趣的开发者可以自己部署,SGLang和vLLM都已经提供了支持。
这个价格和推理速度,我们认为在目前的主流模型中是一个非常好的选择。下面从两个视角分析。
首先是价格 VS 效果,合适的模型应该效果好且价格普惠,也就是落在下图中的绿色部分。这里的效果我们用Artificial Analysis上10个测试集的平均分来表示:

然后是价格 VS 推理速度。在模型部署的时候,有个取舍是模型往往可以用更慢的推理速度获取更低的价格。合适的模型应该价格普惠且推理速度较快。我们同样对比了目前的几个有代表性的模型:

除了这些标准数据上的分析,我们也跟Claude Sonnet 4.5和几个开源模型1V1对比了实用的表现:



这些测试集本周会在Github上公布。
为了大家更方便的使用Agent相关的能力, 我们在国内上线了我们由M2模型驱动的Agent产品, 并且对海外的版本做了升级。在MiniMax Agent中, 我们提供了两种模式:
- Lightning高效模式: 高效极速版Agent, 在对话问答/轻量级搜索/轻量级代码场景极速输出, 且在效果上以强大agentic能力升级对话类产品体验。
- Pro专业模式: 专业agent能力, 在复杂长程任务上最佳表现, 擅长深度研究/全栈开发/PPT/报告撰写/网页制作等等。
受益于M2本身的推理速度, 除了性价比高, M2驱动的Agent完成复杂任务的时间也显著更加流畅。
我们目前在免费提供MiniMax Agent, 直到我们的服务器撑不住为止。
如何使用
-
基于MiniMax-M2的通用Agent产品MiniMax Agent现已全面开放使用, 并限时免费:
https://agent.minimaxi.com/ -
MiniMax-M2 API已在MiniMax开放平台开放使用, 并限时免费:
https://platform.minimaxi.com/docs/guides/text-generation -
MiniMax-M2模型权重已开源, 可以本地部署使用。
本地部署指南
从以下HuggingFace目录中下载模型权重:
https://huggingface.co/MiniMaxAI/MiniMax-M2
我们推荐使用 vLLM 或 SGLang 部署 MiniMax-M2。
vLLM: 请参考 vLLM Deployment Guide.
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/vllm_deploy_guide_cn.md
SGLang: 请参考 SGLang Deployment Guide.
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/sglang_deploy_guide_cn.md
推荐使用以下推理参数以获得最好的性能:
temperature=1.0, top_p = 0.95, top_k = 20工具调用指南: 请参考Tool Calling Guide
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/tool_calling_guide_cn.md
Intelligence with Everyone.

