讯飞星辰免费提供 GLM 5 和 Kimi-K2.5 , 整理一些可以免费蹬 的 GLM 5 (非公益站)

讯飞最近免费了很多模型,之前有 glm-4.7, 这次的 glm-5 估计也是限免一段时间, 还免费了 kimi-k2.5, minimax-m2.1。
讯飞的限免在3月9日已过期,下面有些其他的免费glm-5渠道。

实测讯飞的 glm-5 的速度不快, 大概 15 token/s, 我觉得和 iflow-cli 的速度差不多, 佬友们可以试试。

  • glm 5 的并发限制为 5, iflow的并发限制为 1。

  • glm 4.7 的速度大概 65 token/s, 我最近用的挺多的, 并发限制为 20。

kimi-k2.5 我觉得也挺好用的, 讯飞的速度大概为 10 token/s, 并发限制为 20。

洗车店离我家只有 60 米,我想洗车,是开车去还是走路去?

实测 glm-4.7, glm-5, kimi-k2.5 都建议开车去, 只有 minimax-m2.1 建议步行去 :winking_face_with_tongue:


一些能让佬友们蹬起来的免费 GLM 5:

NVIDIA glm5 | NIM 也免费了, rpm 40

阿里 iflow-cli 命令行 最近禁止反代使用最新模型,会被封号,不再推荐 免费提供不限量的glm-5, 需要手动通过类似 CliProxyAPI 的工具 2api 后才能在其他工具使用api, 实测速度不快, 并发数为 1

阿里魔搭 GLM-5: 魔搭平台的热门模型请求限制会动态调整,大概一天200次左右

GitCode/AtomGit - GLM-5 免费无限token, 注意支持的context上下文很短, 不是很推荐

Modal平台免费提供API到4月30号 Try GLM-5 on Modal, token 免费不限量, 但请求并发数是 1: Usage is limited to a single concurrent request.

Ollama cloud glm-5: 免费用量有 每5h限制, 每3天限制

AIHubMix: 每天免费 1M token, 没有渠道时,可以凑合用用

Kilo Code/CLI 限时免费: GLM-5 is free on Kilo Code/CLI

华为云码道(CodeArts) IDE免费提供GLM-5

字节 TRAE IDE , 试试要不要排队(以前经常排队)

71 个赞

实名不想用…

3 个赞

感谢大佬

1 个赞

不知道他有什么特殊机制,经常一个对话直接把5h用量打满

1 个赞

我在下面又补充了一些不需要实名的, 可以猛蹬 :bili_057:

说明 ollama 给的免费额度非常小啊, 只适合简单聊天测试, 不适合 coding

1 个赞

感谢啊,使用了

1 个赞

英伟达也免费啊,黄大哥不能忘啊

2 个赞

谢谢整理

2 个赞

感谢分享

1 个赞

感谢大佬

1 个赞

感谢大佬整理分享

2 个赞

感谢整理分享

1 个赞

感谢总结

1 个赞

感谢整理

1 个赞

谢谢总结

1 个赞

谢谢大佬提供的渠道。这就试试看

2 个赞

iflow的glm5太慢了

1 个赞

感谢佬的总结,辛苦啦

2 个赞

慢确实慢,但是最稳的渠道, 速度也还能接受吧,已经是我的主力api了,模型能力确实强,我觉得可以比得上 opus 4.5 :melting_face: