佬们,DeepSeek-R1-14B本地模型部署的供10人使用的配置求推荐

佬们,我朋友想部署DeepSeek-R1-14B本地模型加上知识图谱给 实验室10个人使用 求配置推荐

没有现成的设备?那建议用买设备的钱买 API 上更好的模型吧。

其实vllm+32GB显存基本够满足并发需求了,只要上下文不是超长都不会出问题

14b这不是玩具吗

有没有一种错觉,本地部署的比较符合自己的需求?14B啊,体验感拉满,妥妥的小玩具

有些数据属于内部机密嘛

没办法 预算不足

好的 我去看下 谢谢佬

我这边之前离线内网 两张a100 40G+40G
用的ollama。
部署r1-70b 会占满,也就一两个人用,模型能力…也就玩玩。换了32b能力更差。
现在用的qwen2.5-14b insturct-1m-q8 就占17G显存。十几个人用,速度可以,就简单问题用用。
应用现在就sgpt终端便捷调用,jetbrain、vscode插件调用、obsidian调用…
知识库用的maxkb,改下后端django序列化器部分解除限制多人使用。

2 个赞

谢谢佬 就是使用M4 pro 64的处理器跑14b可以不

我自己的4060TI 8G版本地跑个人玩没啥问题,10人并发不清楚 16G也许差不多?

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。