deepseek r1本地部署哪个版本的最合适


这是我的电脑配置,纠结部署官方32b还是70b?另外请教,官方的模型和千问、lamma的蒸馏模型有什么区别?所需的电脑配置是一样吗?

8 个赞

14b 速度还是很可以的

1 个赞

给佬个扫盲贴吧

32b、70b都能跑但是恐怕速度不行,想要速度快的话推荐14b-8bit

3 个赞

楼主可以参考这个表格来看

来源:https://www.cnblogs.com/shook/p/18700561

15 个赞

你这个配置跑不动70B的吧

直接下模型
测下就完事了

4070ti參數32B跑不動吧?就算能跑也是龜速,只能跑14B

我本地部署的32B的

32b应该足够使用,但是14b响应速度更快,体验最佳。不过看不出来是笔记本还是台式机,如果台式机的话,32b也很棒

咱俩机器配置差不多,我配了deepseek-R1 32B,Qwen2.5 Max14B,Llama3.3 14B,都运行挺好的

1 个赞

为啥不直接贴图问问deepseek呢 tieba_015 它肯定会给你一个满意的回答

1B参数全精度大约4g,量化大约0.5g,这个是理论上,实际上有损耗,所以还要再加20%

为什么我 4080super 跑 32B 很吃力?一个字一个字地蹦。。

显存多大的

4080都吃力,那就只能上更高规格的5090D了。。

谢谢大佬指点

8b最快
14b会用上部分共享内存和cpu, 速度可以忍
32b可以龟速体验
再大就换硬件了

只能14b 32b慢的半死

还行,能接受

已部署,还行,能接受