[MiniMax] M2 简单实战测评:Java多模块bug修复、小项目生成

开你个西瓜:watermelon:大头

泪目啊,好久咩发文了,最近一段时间忙+懒,其实我也赞了好多文章,结果都没发出去 =,= 懒癌又发作了,我觉得我可能是松鼠性格,爱凑着~

下面主要测试了 CursorAugment 做横向对比和模型测试,测试下来,效果居然有一点点:pinching_hand:不错哎,特别是在Cursor ,为什么在 Cursor 里面测试呢,我考虑了代码索引这个最重要的东西,在ClineRooCode里面总是少点感觉: 代码索引,索性就用Cursor来测试他的完整能力,绝对不是懒得配置 =,=

模型优劣势横向对比

对比维度 MiniMax-M2 Claude C4.5 GLM4.6
响应速度 :star::star::star::star::star:
约80tokens/秒,速度极快
:star::star::star::star:
中等速度
:star::star::star:
较慢(官方严重卡顿)
代码生成能力 :star::star::star::star:
代码质量良好,代码索引精准
:star::star::star::star::star:
代码生成稳定可靠
:star::star::star:
代码能力时强时弱(官方断流、降智)
指令遵循度 :star::star::star::star::star:
遵循指令,输出结构化
:star::star::star::star::star:
指令遵循优秀
:star::star::star:
基本遵循指令
准确性 :star::star::star::star:
结果准确度高,分析逻辑清晰
:star::star::star::star::star:
准确性极佳
:star::star::star:
准确性良好
MCP工具调用 :star::star::star::star:
完美支持工具调用,功能强大
:star::star::star::star::star:
工具调用稳定
:star::star::star:
工具支持(可能受降智影响)
多轮对话 :star::star::star::star:
上下文理解良好
:star::star::star::star::star:
对话连续性极佳
:star::star::star:
基本对话能力,上下文丢失严重(100k上下)
免费程度 :star::star::star::star::star:
限时免费,API调用无限制
:star::star:
需要付费(官方牛牛的,反正我推荐尽量走靠谱中转吧)
:star::star::star:
有一定免费额度(=,= 想体验就买20那个足够)
集成难度 :star::star::star::star:
配置相对简单,文档完善
:star::star::star:
一般般(主要番茄:tomato:
:star::star::star::star:
配置相对简单,文档完善

综合评分

模型 综合得分 推荐指数 适用场景
Claude C4.5 4.8/5 :star::star::star::star: 全场景都牛逼:ox::beer_mug:就是贵+官方不是人
MiniMax-M2 4.6/5 :star::star::star: 目前暂定国产T0梯队,未来可期!!
GLM4.6 3.8/5 :star::star: 就目前现在这处境官方想办法提高一下稳定性啊 =,=

:light_bulb: 总结:MiniMax-M2在速度和功能丰富度方面表现突出,是当前AI编程工具中的T0梯队选择,特别适合需要高效代码生成和多功能集成的开发场景。

M2 注册

创建 API Key

保存密钥

Windows - Cursor 设置

官网的那个版本截图有问题,大家注意看我操作。

配置模型

![[PixPin_2025-10-28_01-20-47.png]]

第四步,一定要勾选:check_box_with_check::backhand_index_pointing_up:

添加模型: MiniMax-M2

有人在这一步不太懂,为什么呢,因为没有添加模型的 add 我自己摸索了一下需要先搜索:magnifying_glass_tilted_left:,才会出现,这特么不是 bug 吗?丢!

PixPin_2025-10-28_01-24-33

这里不知道是不是 Cursor 的bug,添加之后不会显示的,但是在 chat 聊天已经可以看到了了

Curosr 也不知道搞什么,怎么设置界面这么复杂,,,我丢,好像0.xx版本就这样了,都1.x版本这个bug还在?? =,= :pill::poop:


Windows - Claude Code 设置

我是 PowerShell 终端,下面是我的环境变量设置,直接照抄

安装 Cluade Code

安装前提下:backhand_index_pointing_down:,你安装了 node 22+ 版本以上

npm install -g @anthropic-ai/claude-code

PowerShell 环境变量配置

#minimax
#官说明:https://platform.minimaxi.com/docs/guides/text-ai-coding-tools
$env:ANTHROPIC_BASE_URL="https://api.minimaxi.com/anthropic"
$env:ANTHROPIC_AUTH_TOKEN="eyJhbGciOiJSUz......."
$env:API_TIMEOUT_MS="3000000"
$env:CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC="1"
$env:ANTHROPIC_MODEL="MiniMax-M2"
$env:ANTHROPIC_SMALL_FAST_MODEL="MiniMax-M2"

更多看官方文档

在 AI 编程工具里使用 M2 - MiniMax API Docs

实战 - 小Bug处理

最近在写一个项目,里面有一个权限问题,涉及几张表之间数据捞取,我之前方案是直接写一个 Mybaits 拦截器 ,用子查询插入(select * from user where user_id = xxx) 类型这种写法

Cursor - M2

在Cursor中的搜索:magnifying_glass_tilted_left:有一点小惊喜,能准确在Java项目(还是多模块)中搜索到准确和相关的文件(sql、类文件、md文档等),这归功于 Cursor 也有代码索引,但是能准确调用并且使用,比GLM4.6 稍强。

Tool 工具调用 :white_check_mark:

MCP 调用 :white_check_mark:

Todo list :white_check_mark:

完整

Augment - C4.5

唔,整体看下来大差不差,没有分析过程,因为 Augment 不是用的思考:thinking:模型 think版本,但是速度比M2慢一点。。。M2 是真的快,还是经过Cursor服务中转了一下,输出却有差不多 80/t 离谱,而且最后输出效果还挺好?!挺符合预期的。

完整

小项目生成 - 虚拟卡生成

某虚拟卡生成网站原始JS

带一点混淆和压缩,我只是美化了一下,其他的全靠AI去读和猜~

M2 生成

C4.5 (非思考think版本)

执行情况

M2 一把过 :white_check_mark:

一把过,说明他准确的读取了完整近三千行js代码,并且完整复刻,核心代码 Luhn算法 没啥大问题,但是…但是这个问题速度真的快啊,

核心服务文件:virtual_card.go 在差不多3秒 就输出来了,我还在看C4.5输出和总结,他就好了 :bili_020:

C4.5 一把过

感受到M2 的快之后,再看 C4.5 突然有一点索然无味,因为核心代码差不多,也都是一口气过编译,代码没有太多要调整的,跟当初GLM4.6还要好,速度更快。国产模型目前已低价 + 高效,真的在不停追平国外这些大厂,也在证明一件事,那就是无脑堆硬件真的不如好好调教~

结论

从实战中中很明显看出来, 遵守指令 M2C4.5 不分上下,其实我很好奇为什么输出内容M2C4.5 大差不差?好家伙,是蒸馏了claude多少数据?而且最后每次的总结充满了: c里c气 =,=

我觉得他确实可以暂时跟 GLM4.6 一起坐上 国产 T0 :tada:

免费的?!

我说看不到账单和消耗情况,原来免费调用,让我可要好好的玩玩你有几斤几两~可千万别学GLM4.6断流、降智啊

MiniMax M2 模型 API 限时免费调用!活动截止时间:2025年11月7日 上午 08:00

最新排行榜

80 个赞

牛哇,写的好详细

大佬认真评价,非常中肯,值得点赞,载入史册 :saluting_face:

看佬也高强度使用 你也可以写个对比评测了

哈哈哈,我懒,有这位大佬就可以了,很中肯了,毫无问题,一点毛病没有,和我感受是一样一样的

2 个赞

强啊大佬!:+1:写的很详细!

速度和质量遵循确实好,给国产模型上上压力

这个好用吗

大佬nb

1 个赞

谢谢大佬的用心评测,我们正在努力解决社区反馈的M2问题,以及开始研发M2.1。当时开发这个模型的初衷就是觉得Sonnet和市场上的开源模型,要么太贵、要么太慢。写起代码来太难受。希望能够给大家一个性能好,输出快,又便宜的模型,很高兴大家能喜欢。
不足的地方我们也都看到很多社区真诚反馈,因为时间紧张,不可能在M2一个版本中解决,计划在M2.1尽量改进!

34 个赞

现在cursor免费用户是不是不支持这个API

捉大佬 :heart_eyes:

支持的呀,按楼主的配置方法来就行,我们官方文档也有,但是我现在等级低发不了链接 :joy:

写的好详细
之后试试M2

@quiiiii 过来学习

目前这速度还只是官方api,据说在groq等高速api上可以上1000tps,不敢想象有多爽

3 个赞

看起来不错啊,下午试一试

今天试用了一下,不夸张的说,我觉得写代码比glm4.6好。等7号免费期过后官方价格能打下来更好了。

1 个赞



想问问佬有没有遇到这个问题

希望正式收费后不要太高