Claude Code 中 DeepSeek-V3.2 简单测试-有点点费 Token,不过缓存命中较高,附:对比了一下 claude-opus-4-5

  1. 随手拉了一个 ccusage 项目,让 DeepSeek 进行 web 端可视化。

  2. 先配置一下官方的 API,用 cc-switch 很方便进行配置

  3. 接下来直接启动 claude code,Tap 打开 thinking 模式,DeepSeek-V3.2 会自动切换思考模式。

  4. 让他进行分析项目,可视化,给出了建议,就开始哐哐写代码了,整个过程很丝滑,模型速度也比较快,感觉和 minmax-m2 差不多。

  5. 吐槽的一点就是 128k 上下文太短了,没一会儿就要 compact。

  6. 中间工具调用灰常丝滑,一次都没报错过!看出来专门适配 cc 过了。

  7. 最终结果,像模像样,没有仔细去让它修了。



  8. 最后附加一个官方的账单。8.3M tokens,其中缓存命中 7.8M。消费 3.24 元。

对比一下 Claude(全程claude-opus-4-5) 的效果。还是更强一些,全程没有上下文压缩,而且逻辑也非常精准,属于一把过的程度。



Token 使用量:费用算起来比 DeepSeek 便宜(因为用了更少的 tokens 就完成了任务)


50 个赞

佬真快啊,感谢佬测试

3 个赞

感谢佬的测试,那这次的更新还可以啊,看来过年又要来波大的了

1 个赞

啊这样的吗,好像一直没听说过ds为了编程工具做过优化啊,是我落后了吗

1 个赞

我看官方是提到适配了 cc 的思考模式。也许整体也进行了优化?

7 个赞

这效果算便宜的还是贵的?我看起来一个任务3块挺贵了

不知道用claude sonnet 4.5跑一次需要多少

楼主方便测一下吗


几毛钱做了个下象棋的,好像哪里不对劲 :rofl:

1 个赞

真便宜啊 8M才3块多

还不错啊!

1 个赞

确实,主要是中间压缩了四五次上下文,它每次都要回忆一下,感觉完成同样的任务,消耗的 token 会多一些。

2 个赞

其实象棋逻辑还是挺复杂的(全套手搓的话) 想想大二算法课我的课程设计就是象棋…那还是个没有AI的年代

从头开始一个项目的难度可能会比在现有项目上重构容易一些。因为要读大量的现有代码。

可以试一下,不过claude sonnet 4.5 的上下文有很大优势,虽然 200k 目前也觉得有点不够了,但是比 128k 还是多了接近一倍,在 cc 的场景下,上下文的硬伤太大了

1 个赞

已更新帖子,可以看一下,claude-opus-4-5还是太强了

要是上下文长点估计会好很多,看看第三方部署的后续有没有长一点上下文的

1 个赞

那主要是a​:divide:有空子给这帮中转钻:rofl:啥时候a​:divide:脑子一抽把空子全堵了你再看价格

1 个赞

如果用sonnet是不是更便宜,不过不知道ds3.2和sonnet差距如何?

感觉是差不了多少的,除了上下文,对于大项目,上下文太重要了

看样子还不错啊