deepseek v3可以服务器部署吗,有教程吗(看起来不可以,感谢各位回复)

deepseek v3可以服务器部署吗,有教程吗

ollama可以部署

好像刚刚ollma推出了deepseek的模型

一般人部署成本 > 你直接买官方 api 的成本
结案 ( ⩌ ˰ ⩌)+

5 个赞

主要不是教程,是服务器够不够硬

有教程吗哥

啥时候啊

所以不清楚这块大概需要什么配置呢

查了一下,deepseek有6000多亿参数。得要三十几块a100才能跑
由于禁运了,大概一块十几万吧,不过也没有正常渠道买
你要是有背景且家里有几个亿,可以考虑在服务器上部署一下 记得抽奖送给佬友

1 个赞

671B的DeepSeek V3本地运行,由于DeepSeek的框架原生采用 FP8 训练,因此仅提供 FP8 权重,预估仅700GB+显存便可轻松运行。

当然也可以转换到BF16,在半精度下,需1400GB+

量化到int4时需要300GB+

1 个赞

推荐配置 8 * H200,4bit 量化后也需要 400G 以上,即使上手段,至少也需要 200G 以上才勉勉强强吧(200G 这个不保证可行)

Q2_K_XS should run ok in ~40GB of CPU / GPU VRAM with automatic llama.cpp offloading. 这应该是最低要求了。DeepSeek的api这么便宜,为什么要本地部署

github或抱脸上好像有简单的介绍的
深度搜索-ai/深度搜索-V3

2bit 量化没兴趣,最低也要 4bit 吧

没有必须本地部署吧? 太杀精啊~~

仅需800G+的显存就可以私有化部署。。。

我很怀疑楼主是根本就不懂自建deepseek是什么概念,以为就是随便买了小鸡,建个网页那样。

1 个赞

你说得对 所以问下佬友

应该说的是调用 api 后的页面部署,对大模型没有概念。

自己部署啊?这个太大了吧