豆包低调发布Seed 2.0 全系列,价格比1.8贵4~8倍! (新测洗车题与主流国产模型价格计算)

看来字节对于豆包1.8(结合之前回炉过一次)不太满意.

还是256K上下文

2.0Pro输入比1.8贵4倍,输出比1.8贵8倍(<200字) :face_with_monocle:.

2.0lite整体比1.8要便宜(经Likerainer佬提醒),性能也比1.8要强,刚公测的1.8就要入土为安了 :sweat_smile:.

PS:个人之前非常喜欢用1.8,多模态,便宜,性能在飞书多维表里面字段单元格级别任务绰绰有余,几千行数据,识发票, 银行对账, 原始数据清洗去噪音, 完全不用担心钱包,单元格级处理, 准确率也值得放心。所以豆包1.8可能定位就是丢在飞书多维表里做小规模多频次推理用的,比如总结单元格内容,替换或者提炼单元格字符,这种<200token的任务1.8非常有性价比了。

相比GLM5和KIMI2.5:

≤32k

  • 豆包2.0 Pro:0.144 元(最便宜)
  • GLM-5(≤32k档):0.170 元
  • Kimi2.5:0.185 元

结论:没超 32k,还是豆包2.0 Pro 最省。


32k~128k

  • Kimi2.5:0.362 元(最便宜)
  • 豆包2.0 Pro(32k~128k档):0.432 元
  • GLM-5(>32k档):0.524 元

结论:32k~128k ,Kimi2.5 最省, 豆包2.0Pro比GLM5便宜一丢丢.


128k~256k

  • Kimi2.5:0.842 元(明显最省)
  • 豆包2.0 Pro(128k~256k档):2.016 元(成本爆炸)
  • GLM-5:(>32k档)**:0.524 元

结论:还是Kimi2.5最省;豆包2.0 Pro 成本直接原地爆炸。




模型 输入档位/条件 推理输入 推理输出 缓存命中 缓存存储 批量推理输入 批量推理输出 批量推理缓存命中
豆包 2.0 Pro 输入≤32k 3.2 16 0.64 0.017
豆包 2.0 Pro 32k<输入≤128k 4.8 24 0.96 0.017
豆包 2.0 Pro 128k<输入≤256k 9.6 48 1.92 0.017
豆包 2.0 lite 输入≤32k 0.6 3.6 0.12
豆包 2.0 lite 32k<输入≤128k 0.9 5.4 0.18
豆包 2.0 lite 128k<输入≤256k 1.8 10.8 0.36
豆包 1.8 输入≤32k,输出≤200 0.8 2 0.16 0.017 0.4 1 0.16
豆包 1.8 输入≤32k,输出>200 0.8 8 0.16 0.017 0.4 4 0.16
豆包 1.8 32k<输入≤128k 1.2 16 0.16 0.017 0.6 8 0.16
豆包 1.8 输入>128k 2.4 24 0.16 0.017 1.2 12 0.16
GLM-5 输入≤32k 4.0 18.0 1.0 限时免费
GLM-5 输入>32k 6.0 22.0 1.5 限时免费
Kimi-k2.5 输入≤256k 4.0 21.0 0.7 未披露

洗车题,2.0pro和2.0lite均对.1.8错,看来 2.0lite 也比 1.8 聪明.

9 个赞

牛逼的话会低调吗:thinking:

14 个赞

api发了吗

1 个赞

都上线火山了 肯定是能用了

不过价格确实不美丽

1 个赞

预计不咋地吧w

可能是Giga Potato,风评还是可以的。

2.0 Pro 参数应该是 1T+,1.5/1.8都是200B+

怎么这货也开始总结思维链了

1T+那和 kimi2.5 的参数量持平了诶

主要是因为参数量超过万亿了

没有 LiveCodeBench 和 Codeforces 的测试啊

佬,这个来源是哪里?

1 个赞

模型卡里都有,字节做评估做的很详细

这么牛吗

这么牛啊

不是出现好多家告这个了吗,说侵权啥的,说明是真的厉害

那是seedance 2.0
这是doubao-seed 2.0

稍微测了一下,感觉算法方面完全不如 k2.5,跟 V3.2 一个水平吧

1 个赞

等他上线那个什么每日200w额度再用:tieba_003:

2 个赞