35 个赞
还好没放弃
1 个赞
修正一下
Models
1.5B Qwen DeepSeek R1
ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R1
ollama run deepseek-r1:7b
8B Llama DeepSeek R1
ollama run deepseek-r1:8b
14B Qwen DeepSeek R1
ollama run deepseek-r1:14b
32B Qwen DeepSeek R1
ollama run deepseek-r1:32b
70B Llama DeepSeek R1
ollama run deepseek-r1:70b
3 个赞
千年等一回
1 个赞
这个是必须本地部署还是可以部署在huggingface?
1 个赞
之前的r1-lite是不是有可能就是蒸馏过后的32b qwen啊
我看推上有人在猜
2 个赞
站里有潜水的deepseek内部佬的,快把他们夸出来![]()
7 个赞
都蒸馏好了,良心啊
3 个赞
如果只是单纯的搞家庭物联网,是不是1.5B就能专项理解大多数指令了?
感谢佬的分享
这个可以玩一下
这个要是本地部署需要什么配置。。。
下载个 ollama ,再在终端运行它的 model
1 个赞
不懂就问。。这些都需要多大的GPU现存啊。。。
我记得1.5B好像要3G显存?
点赞,感谢分享
1 个赞
这种本地调用需要付费吗?
2 个赞
1.5B得多大显存啊
1 个赞
可惜显卡配置不够
deepseek真是业内良心,真正的openai

