到家了,试了下AMD显卡本地部署deepseek-R1 14B模型。Nvidia还得跌

之前发了个 10年前的笔记本跑deepseek-r1 7b - 开发调优 - LINUX DO 今天来试试AMD的低端显卡能不能跑,要知道以前AMD基本没法碰AI的。结果我的配置跑下来 deepseek-r1 14B非常的快!

配置如下
CPU: AMD 5600
显卡: 华擎 6750GRE 10G
内存: 32G ddr4 3600

9 个赞

不是吧,哥们垃圾5600XT玩了好多小模型了,而且还不支持ROCM,用VLCAN跑的

1 个赞

多大参数啊

7b的4位

6750GRE 都是低端卡了。。。。。。

啊 还不低端吗 …………

我笔记本集显都跑了7b…就是有点慢

你把66 6500xt放哪儿。。。

不是,这应该不是快不快的问题吧,还是得看智商吧-。-

智商不应该看模型吗,显卡就是看显存够不够跑这个模型和生成速度呀

能低成本部署,并不会拉低高端显卡的价格。高端显卡的性能会被更高要求的程序抢占。
之前有句流行俗话,大意是,Intel提升的出的硬件性能都被Windows系统占用了。

真要671B,配置老高了

主要是载入模型的时候要全部加载如GPU,不然默认是会给几层去内存的,内存太慢了,gpu空闲等数据

可以发视频的

问题是能跑14B模型和英伟达继续跌有啥关系-。-没看明白,真正满血R1还得看671B不是吗,感觉标题不太合适

外链的么

其他路子的模型14B AMD这款显卡跑不动 AMD最新出的7900XT 跑deepseek-R1也超过4090了

是的 图床就行 我帖子有免费给佬友用的

感谢大佬

小事 反正都是闲置资源哈哈