英伟达老黄的福利, NVIDIA NIM APIs 开始免费提供 glm-4.7, minimax-m2.1

  • NVIDIA NIM APIs 开始免费提供 glm-4.7, minimax-m2.1
    • 虽然模型名暂时没在官方模型广场页面列出,但实测已经可用了,可以用自己的api key试试
    • 因为才刚开始免费提供这些最新模型,所以资源紧张,速度可能较慢。
    • 实测普通聊天场景下,glm-4.7速度为25tokens/s, minimax-2.1速度为 150tokens/s。 很好奇,佬友们实际体验这两个最新模型的效果如何,glm-4.7在日常coding方面我的体验是能力很强不输claude,minimax-m2.1因为之前没渠道用的不多
    • api url: https://integrate.api.nvidia.com/v1
    • 模型名: z-ai/glm4.7, minimaxai/minimax-m2.1

更多免费的模型api可以看我总结的这个帖子

426 个赞

我买溢价显卡的时候已经付过钱了 :enraged_face:

185 个赞

好耶!!!站内公益佬又有新渠道了

49 个赞

额,不知道是不是我打开的方式不对,GLM不咋好用了~

33 个赞

应该感谢老黄一下

25 个赞

国外reddit论坛也有人反馈glm-4.7现在很慢,可能才刚免费用的人多, 但我实测minimax-m2.1速度很快,体验很好

30 个赞

glm 4.7 体验很不错, 我已经在正式项目上用了

28 个赞

英伟达的速度不稳定,之前免费DeepSeek 的时候就发现了

25 个赞

我实际coding体验,在实现需求和分析bug的能力上,我觉得不输claude 4.5, glm模型官方表示针对claude code优化过

24 个赞

glm的工具调用问题现在有改善了吗,我记得之前不是说很差吗

17 个赞

nvidia nim 在热门模型上的速度都不怎么快,用的人多了,可以试试不那么热门的 minimax-m2.1, kimi-k2-thinking, mistral-devstral-large

22 个赞

最不缺算力的一集

20 个赞

从输出速度就能看出m2.1不如glm4.7

26 个赞

感谢佬,有需要的时候GLM4.7

16 个赞

谢谢佬分享

15 个赞

老黄又大方了

12 个赞

与此同时DS3.2下架不可用了 :sob:

27 个赞
  • 不能简单这么看,deepseek-v3.2因为热门,速度一直都不快
  • glm-4.7慢主要是模型参数大, 358B-A32B, 所以执行计算消耗资源多, 但知识更全,推理更强
  • minimax-m2.1因为参数小所以更快,230b-a10b, 但官方表示针对web开发和热门编程语言优化过
20 个赞

确定deepseek-v3.2能用吗?我从来没成功过

16 个赞

感谢佬~

13 个赞