🔥deepseek。。。终于等到你


huggingface 开源这个版本容量大小可选择,终于等到你

35 个赞

还好没放弃

1 个赞

修正一下

Models

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b
3 个赞

千年等一回

1 个赞

这个是必须本地部署还是可以部署在huggingface?

1 个赞

之前的r1-lite是不是有可能就是蒸馏过后的32b qwen啊:worried:我看推上有人在猜

2 个赞

站里有潜水的deepseek内部佬的,快把他们夸出来tieba_002

7 个赞

都蒸馏好了,良心啊

3 个赞

如果只是单纯的搞家庭物联网,是不是1.5B就能专项理解大多数指令了?

感谢佬的分享

我一直用官方API也挺好

1 个赞

这个可以玩一下

这个要是本地部署需要什么配置。。。

下载个 ollama ,再在终端运行它的 model

1 个赞

不懂就问。。这些都需要多大的GPU现存啊。。。

我记得1.5B好像要3G显存?

点赞,感谢分享

1 个赞

这种本地调用需要付费吗?

2 个赞

1.5B得多大显存啊

1 个赞

可惜显卡配置不够

deepseek真是业内良心,真正的openai