讯飞最近免费了很多模型,之前有 glm-4.7, 这次的 glm-5 估计也是限免一段时间, 还免费了 kimi-k2.5, minimax-m2.1。
讯飞的限免在3月9日已过期,下面有些其他的免费glm-5渠道。
实测讯飞的 glm-5 的速度不快, 大概 15 token/s, 我觉得和 iflow-cli 的速度差不多, 佬友们可以试试。
-
glm 5 的并发限制为 5, iflow的并发限制为 1。
-
glm 4.7 的速度大概 65 token/s, 我最近用的挺多的, 并发限制为 20。
kimi-k2.5 我觉得也挺好用的, 讯飞的速度大概为 10 token/s, 并发限制为 20。
洗车店离我家只有 60 米,我想洗车,是开车去还是走路去?
实测 glm-4.7, glm-5, kimi-k2.5 都建议开车去, 只有 minimax-m2.1 建议步行去 ![]()
一些能让佬友们蹬起来的免费 GLM 5:
NVIDIA glm5 | NIM 也免费了, rpm 40
阿里 iflow-cli 命令行 最近禁止反代使用最新模型,会被封号,不再推荐 免费提供不限量的glm-5, 需要手动通过类似 CliProxyAPI 的工具 2api 后才能在其他工具使用api, 实测速度不快, 并发数为 1
阿里魔搭 GLM-5: 魔搭平台的热门模型请求限制会动态调整,大概一天200次左右
GitCode/AtomGit - GLM-5 免费无限token, 注意支持的context上下文很短, 不是很推荐
Modal平台免费提供API到4月30号 Try GLM-5 on Modal, token 免费不限量, 但请求并发数是 1: Usage is limited to a single concurrent request.
Ollama cloud glm-5: 免费用量有 每5h限制, 每3天限制
AIHubMix: 每天免费 1M token, 没有渠道时,可以凑合用用
Kilo Code/CLI 限时免费: GLM-5 is free on Kilo Code/CLI
华为云码道(CodeArts) IDE免费提供GLM-5
字节 TRAE IDE , 试试要不要排队(以前经常排队)