ollama 免费模型 minimax-m2.7:cloud

由于是云模型,只需 9M 内存。无需GPU,小鸡都拖得动,速度还不错,洛杉矶小鸡跑约 3秒

不知道免费啥时候结束

8 个赞

好用吗,我试试

试试,感谢

试了,感觉一般般,glm5稍微好用点,不过也不排除ollam量化了,感觉不是一般的降智:thinking:

云模型是啥意思 和minimax-m2.7 api的区别很大吧?

我也不清楚是啥,就是个接口吧。一般ollama模型是要下载模型权重到本地用本地算力跑。minimax-m2.7盲猜可能是q4量化版。

1 个赞

那就不太好用的吧 谢谢!

居然有了

ollama弄几十个号就有无限的gemini3flash用了:grin::grin:

谢谢去试试

不是要绑定手机吗

懂了,谷歌不要绑定

m2.7没开源吧,他怎么量化的 :face_with_monocle:

量化模型还是得看jackrong