白嫖已实现api可持续的自由 ![]()
目前我自己用的最多的是Gemini 2.5 pro文案处理无敌
推理用o3
编程claude sonnet/opus 4/3.7
今天看见有个佬问gpt-4o的渠道
突然就好奇了,大家都在用啥模型干什么任务
openrouter
aihubxxx
有点惊呆了
白嫖已实现api可持续的自由 ![]()
目前我自己用的最多的是Gemini 2.5 pro文案处理无敌
推理用o3
编程claude sonnet/opus 4/3.7
今天看见有个佬问gpt-4o的渠道
突然就好奇了,大家都在用啥模型干什么任务
openrouter
aihubxxx
有点惊呆了
gemini-2.5-pro 翻译 ![]()
Claude sonnet,编程还是独一家
gemini-2.5-pro你们用着速度不慢吗
不快,能忍状态
看到很多人说 OR 排行榜的事的,其实参考性很一般,因为 OR 的总体用量实际上非常低(参考:OpenRouter 一个月所有模型加起来跑 ~7T Tokens,豆包也公开过数据,豆包系列 LLM 一天平均跑 ~14T,折合一个月 ~420T Tokens),更不用说 Gemini / Claude / OpenAI 官方的平台了,而且从 API 数据看单纯就引入了偏差(用 API 的开发者居多),所以看看就好
不知道啥原因,我用的回复太慢
我的天,豆包
慢的我只能去2.5flash